Agrégateur de contenus

Comptes-rendus d'événement

Künstliche Intelligenz, virtuelle Realität und Gamification – Wie sieht die Zukunft des Lernens aus?

par Dr. Vandad Sohrabi
Lernen neu denken: Stipendiatinnen und Stipendiaten der Konrad-Adenauer-Stiftung erforschten in Aachen, wie digitale Technologien Bildung verändern – und welche Rolle der Mensch dabei spielen wird. Sie sprachen mit einer KI auf Chinesisch, programmierten ein Lernspiel mit Konrad-Adenauer-Motiv und produzierten Podcasts und Erklärvideos. Zwischen Neugier und Skepsis erfuhren sie, was Lernen in Zeiten der KI wirklich braucht: Neugier, Intuition – und Haltung. Werte, die keine Maschine ersetzen kann.

Agrégateur de contenus

Partager

Der Klang der Zukunft

Die Sonne scheint durch die Glasfronten des Seminarraums in der Bischöflichen Akademie Aachen. Sechs Stipendiatinnen und Stipendiaten lehnen sich über Laptops und Smartphones. Sie haben sich ein paar chinesische Wörter notiert, aktivieren den Sprachmodus – und wagen den Versuch.

„你好吗? (nǐ hǎo ma? – Wie geht’s?)“ – „我很好。你呢? (wǒ hěn hǎo. nǐ ne? – Mir geht’s gut. Und dir?)“

Die KI antwortet freundlich, aber holprig. Töne kippen, Silben verschwimmen. Dr. Vandad Sohrabi, der Seminarleiter, hört aufmerksam zu. Er spricht selbst Chinesisch und schüttelt den Kopf. „Die Aussprache ist noch nicht gut“, sagt er. „ChatGPT trifft die Töne nicht – das ist kaum verständlich.“ Auch die Teilnehmenden merken schnell: Die KI versteht vieles nicht. „Wir mussten jedes zweite Wort wiederholen“, sagt eine Stipendiatin. Kein magischer Tandempartner also – noch nicht.

Doch statt sich entmutigen zu lassen, experimentieren sie weiter. Sie ändern Prompts und testen ein Custom-GPT – eine individuell angepasste Version des Sprachmodells, die mit zusätzlichen Trainingsdaten für Chinesisch erstellt wurde. Wieder dieselben Sätze – und plötzlich klingt alles klarer. Die Stimme wirkt weicher, die Tonhöhen stimmen, der Dialog fließt natürlicher. „Das ist schon fast wie ein Tandempartner“, sagt eine Teilnehmerin. Doch bald wird klar: Die KI ist zu höflich. Sie lobt viel, korrigiert selten und gibt kaum kritisches Feedback zur Aussprache – genau das aber wäre entscheidend für den Lernerfolg. Trotz dieser aktuellen Grenzen der KI: Das Lernen funktioniert. Am Ende des Tages beherrschen sie rund 50 neue Vokabeln und zwei einminütige Dialoge – ein sichtbarer Fortschritt.

Was hier im Kleinen geschieht, spiegelt die große Frage des Seminars: Wie können Mensch und Maschine miteinander sprechen – und voneinander lernen?

 

Denken mit Stirn und Nase

Dr. Marco Wehr, Physiker, Philosoph, professioneller Tänzer und Autor – in der Wochenzeitung DIE ZEIT einmal als „Kopf mit Körper“ beschrieben – bringt diesen Gedanken im Seminar auf den Punkt. In seinem Vortrag spricht er nicht über Technik, sondern über Haltung. Wehr lehnt die Trennung von Geist und Körper ab. „Wir verstehen, indem wir handeln“, sagt er. „Erkenntnis entsteht aus Bewegung, Irrtum und Erfahrung.“ Er selbst verkörpert diese Idee als lebenslanger Lernender und Tänzer aus Leidenschaft. 

Als Sinnbild erzählt er eine Geschichte über Albert Einstein. Der Physiker sei einmal gefragt worden, was seine herausragenden Fähigkeiten seien. Einstein habe geantwortet: „Meine Stirn und meine Nase.“ Die Nase – Symbol für Intuition und Neugier. Die Stirn – Sinnbild für Ausdauer, Beharrlichkeit und Frustrationstoleranz. Für Wehr beschreibt das, was schöpferisches Denken braucht – gerade in Zeiten Künstlicher Intelligenz: den Mut, der eigenen Intuition zu folgen, und die Kraft, eine gute Idee gegen Zweifel und Widerstände zu verteidigen. Die Stirn zu haben und seiner Nase zu trauen – das ist für ihn der Kern menschlicher Kreativität.

Diese Haltung durchzieht das Seminar: Lernen als Bewegung zwischen Neugier, Intuition und Beharrlichkeit.

 

Vom Spielen und Coden

Während ein Teil der Stipendiatinnen und Stipendiaten sich selbst Chinesisch beibringt, programmiert ein paar Türen weiter eine zweite Gruppe ein Lernspiel. Auf dem Bildschirm windet sich ein kleiner digitaler Zug – mit dem Kopf von Konrad Adenauer. Das Spiel heißt „Train with Konni und basiert auf dem klassischen Snake-Prinzip. Doch statt zufällig Punkte zu jagen, sammelt der Spieler Wissen: Fragen zu Geschichte, Geografie, Mathematik und Naturwissenschaften. Wer richtig antwortet, lässt den Zug wachsen. Nach mehreren korrekten Antworten gewinnt Adenauer sogar Hut und Sonnenbrille – das Spiel wird unterhaltsamer, der Lernende festigt sein Wissen.

„Rund 80 Prozent des Codes hat uns die KI mit nur wenigen Prompts geschrieben“, erzählt ein Teilnehmer. „Nur das Debugging und der Feinschliff waren Handarbeit.“ Einige finden das erleichternd – schneller, effizienter, beeindruckend. Ein anderer wirkt nachdenklich: „Wenn die KI fast alles übernimmt, wo bleibt dann noch unser Anteil? Ich hatte mich darauf gefreut, etwas übers Programmieren zu lernen. Jetzt frage ich mich, ob man das überhaupt noch braucht.“ Das Spiel wird zur Metapher: für das Zusammenspiel von Mensch und Maschine – und für die Frage, wie viel Eigeninitiative bleibt, wenn Algorithmen mitdenken. Oder ob sie eines Tages klüger, schneller, vielleicht sogar kreativer sind als wir.

 

Mehr als Punkte und Fortschrittsbalken

Im Nebenraum arbeitet die dritte Gruppe: Im Future-Lab erforschen sie, wie das Lernen der Zukunft aussehen kann. Dafür gestalten sie eine multimediale Webseite, die als gemeinsame Plattform dient und alle Ergebnisse des Seminars zusammenführt. Für diese Seite entwickeln sie mit KI ein Lernvideo, einen Podcast und eine digitale Mindmap – alles am Laptop generiert, kein Notizzettel, keine Kreidetafel.

Die Mindmap zieht eine Linie von der Alphabetisierung über Humboldts Bildungsideal bis zur heutigen Wissensgesellschaft. Das Lernvideo erklärt, wie Gamification Motivation fördern kann – aber nur, wenn sie sinnvoll in Lernprozesse eingebettet ist. Der Podcast zeigt, wie Virtual Reality das Lernen immersiver macht: Operationen üben, historische Orte erkunden, komplexe Szenarien durchspielen – ohne Risiko, aber mit echtem Erkenntnisgewinn.

Die Gruppe arbeitet heraus, welchen Einfluss Technologie auf Bildung hat, und zeigt zugleich, dass Lernen mehr ist als das Sammeln von Punkten oder das Füllen von Fortschrittsbalken.

 

Die Meta-Gruppen – Lernen beim Lernen

Während die einen Chinesisch lernen, programmieren oder Erklärvideos entwickeln, beobachten die sogenannten Meta-Gruppen das Geschehen aus einer anderen Perspektive: Sie untersuchen, wie gelernt wird. Mit Beobachtungsbögen analysieren sie die Arbeit der drei Gruppen – dokumentieren Kommunikationsmuster, Motivation, Kreativität und ethische Reflexion. Sie halten fest, wann Fehler zu Chancen werden, wann KI kritisch hinterfragt oder begeistert gefeiert wird. Ihr Ziel: systematisch zu verstehen, wie Erkenntnis entsteht, wenn Menschen mit Maschinen lernen.

 

Wenn Maschinen lernen – und doch nicht verstehen

Wie Menschen mit Maschinen lernen – das lässt sich beobachten. Wie aber „lernt“ Künstliche Intelligenz – und was unterscheidet dieses Lernen vom menschlichen Verstehen? Sicher ist: Künstliche Intelligenz ist kein magisches Denken, sondern Statistik in Hochgeschwindigkeit. Während klassische KI noch mit festen Regeln arbeitete, lernt Maschinelles Lernen aus Daten: Es erkennt Muster, zieht Schlüsse und trifft Vorhersagen. Deep Learning geht weiter – neuronale Netze mit vielen Schichten ahmen die Funktionsweise des Gehirns nach.

Die heutige Generative KI baut auf sogenannten Foundation Models auf, die aus riesigen Mengen an Text, Bild und Ton lernen. Sprachmodelle wie ChatGPT berechnen für jedes Wort die Wahrscheinlichkeit des nächsten – Milliarden Parameter werden ständig angepasst. So entstehen Systeme, die Texte, Bilder oder Musik erzeugen können und dabei erstaunlich flüssig wirken.

Doch trotz all dieser Leistungen hat KI noch kein Bewusstsein. Sie versteht nicht, was sie sagt – sie berechnet Wahrscheinlichkeiten. Ob sich das eines Tages ändert, ist offen. Manche Forschende halten Bewusstsein für eine Frage der Komplexität, andere für eine Grenze, die Maschinen nie überschreiten werden.

 

AI 2027 – Ein Blick in die Zukunft

Im Seminar in Aachen wurden Sprachmodelle noch als reine Werkzeuge eingesetzt, doch Forschungsteams weltweit entwickeln bereits Systeme, die eigene Ziele verfolgen und sich selbst verbessern können. Die szenariobasierte Prognose AI 2027 beschreibt eine Welt, in der sogenannte autonome Agenten zum Alltag gehören – KI-Systeme, die selbstständig im Netz recherchieren, Software schreiben oder ganze Projekte steuern.

Was heute noch Assistenz ist, könnte bald Kooperation oder Konkurrenz werden. Diese Modelle lernen permanent weiter, erzeugen eigene Daten und trainieren sich selbst nach. Sie sind – so sagen Forschende – niemals fertig.

Wenn diese Prognosen stimmen, könnte der Sprung größer sein als die industrielle Revolution – nur ungleich schneller. Dann lautet die entscheidende Frage nicht mehr, ob Maschinen Bewusstsein erlangen, sondern wie wir damit umgehen, falls sie beginnen, eines zu zeigen. Zwischen Kontrolle und Kooperation, Verantwortung und Macht wird sich entscheiden, ob KI das mächtigste Werkzeug oder die größte Herausforderung der Menschheitsgeschichte wird.

 

Stirn, Nase, Verantwortung

Was in globalen Zukunftsszenarien oft abstrakt klingt, wurde im Seminar ganz konkret erfahrbar. Um die unterschiedlichen Sichtweisen auf diese Entwicklungen zu verstehen, empfahl der Seminarleiter im Vorfeld verschiedene Talks und Vorlesungen führender KI-Forscherinnen und -Forscher. Diese Thesen bildeten anschließend die Grundlage für die Diskussion im Seminar: Der KI-Forscher Yann LeCun, Chief AI Scientist bei Meta, sieht KI als evolutionären, kontrollierbaren Prozess – eine schrittweise Entwicklung mit eingebauten Sicherungen statt eines plötzlichen Sprungs zur Superintelligenz. Geoffrey Hinton, einer der Pioniere und „Godfather of AI“, warnt hingegen, dass Gesellschaft und Institutionen auf die Geschwindigkeit und Wucht dieser Entwicklung nicht vorbereitet sind und die Risiken unterschätzen, insbesondere durch Systeme, die eigene Ziele verfolgen oder Menschen manipulieren könnten. Ilya Sutskever, Mitgründer und ehemals Chief Scientist von OpenAI, betont das historische Potenzial digitaler Systeme, alles Menschliche lernen zu können, und hält eine sichere Superintelligenz für möglich. Der Informatiker Roman Yampolskiy von der University of Louisville fordert radikale Kontrollmechanismen, um fundamentale Alignment-Probleme zu bewältigen. Besonders resonierte unter den Teilnehmenden Hintons Analogie: KI sei wie ein Tigerjunges – anfangs faszinierend und scheinbar harmlos, doch mit wachsender Stärke steige auch die Verantwortung, sie zu bändigen.

Ob KI ein mächtiges Werkzeug bleibt oder eigenständiger Akteur wird – das ist offen. Worin sich die Teilnehmenden jedoch weitgehend einig waren, knüpft an die Gedanken von Dr. Marco Wehr an: Künstliche Intelligenz kann Lernprozesse bereichern, beschleunigen, vielleicht revolutionieren. Doch sie fordert mehr als technisches Können – sie verlangt Nase und Stirn. Die Nase, um neugierig zu bleiben, zu spüren, wann etwas Sinn ergibt – oder gefährlich wird. Die Stirn, um Frustration auszuhalten, zu denken, zu zweifeln. Vielleicht liegt genau darin die Zukunft des Lernens: Maschinen können rechnen, simulieren, kombinieren. Aber das Staunen, das Fragen, das Verstehen – das bleibt genuin menschlich. Noch.

Agrégateur de contenus

comment-portlet

Agrégateur de contenus

À propos de cette collection

La Fondation Konrad-Adenauer, ses instituts, centres de formation et bureaux à l'étranger proposent tous les ans uin grand nombre de manifestations dédiées à des thèmes différents. À l'adresse www.kas.de, nous vous présentons, de manière actuelle et exclusive, des conférences, événements et symposiums. Outre un résumé thématique, vous trouverez ici aussi du matériel supplémentaire tel que des photos, des manuscrits de discours, des vidéos ou des podcasts radio.

Agrégateur de contenus