The „Cognitive Offloading“ Paradox
Der Untertitel dieses Beitrags lautet: „New research shows that offloading learning tasks to AI can improve – rather than erode – human thinking and learning.“ Die…
Der Untertitel dieses Beitrags lautet: „New research shows that offloading learning tasks to AI can improve – rather than erode – human thinking and learning.“ Die…
Hinter diesem Titel stecken eigentlich drei Blogbeiträge, die sich alle mit dem Thema „KI-Agenten in der Hochschullandschaft“ beschäftigen. Geschrieben wurden sie von Mitarbeiter:innen des Projekts „Emerging…
Es braucht manchmal ein paar Tage, bis Johannes Starke seine BarCamp-Erlebnisse niedergeschrieben hat. Aber dafür erhält man dann eine wirklich ausführliche Reflexion der Themen, Sessions, Begegnungen…
Am 12. Februar haben wir die Veröffentlichung unseres Buches „Gemeinsam lernen, gemeinsam wachsen. 15 Jahre Corporate Learning Community – Geschichten, Menschen, Erfahrungen, Themen“ gefeiert. Online und…
Natürlich geht es in dem Beitrag, auf den ich hier verweise, um KI. Philippa Hardman hat sich wieder die Mühe gemacht, eine wissenschaftliche Studie ausführlich vorzustellen,…
Christoph Meier (scil) hat drei aktuelle Studien gelesen, die sich mit den Auswirkungen von generativer KI auf die Arbeitsproduktivität befassen, und deren Ergebnisse für uns zusammengefasst.…
Ich bin nicht sicher, ob wir die richtige Zielgruppe dieser Ausblicke sind („business leaders“) und ob wir die beschriebenen Entwicklungen noch erleben werden. Wie auch immer,…
Folgende Frage hat sich Philippa Hardman in ihrem jüngsten Artikel gestellt: „How do we build AI-augmented workflows for L&D that capture AI’s upside while actively managing…
Am 18. September 2025 fand in der Cogneon Akademie in Nürnberg (und Online) das zweite WissensTransferCamp (#wtc25) statt. Wer (wie ich) nicht dabei sein konnte, kann…
ChatGPT hat gerade einen neuen „Study Mode“ freigeschaltet: „Eine neue Lernmethode in ChatGPT, die anstelle von schnellen Antworten eine Schritt-für-Schritt-Anleitung bietet.“ Ich hatte bisher nur wenig…