Edition Zukunft

Edition Zukunft

Der STANDARD-Podcast über das Leben und die Welt von morgen

Könnten Sprachmodelle künftig auch logisch denken?

Audio herunterladen: MP3

Für viele Menschen gehört das Sprachprogramm ChatGPT längst zum Alltag. Man lässt das Programm eigene E-Mails schreiben, fremde Texte zusammenfassen oder Informationen zu bestimmten Themen liefern. Innerhalb von Sekunden spuckt es einem auf dem Bildschirm die Antworten aus. Die Ergebnisse sind in vielen Fällen erstaunlich – und sprachlich einwandfrei. Aussagen auf Wahrheit, Schlüssigkeit und Logik prüfen, so wie wir Menschen, kann eine künstliche Intelligenz (KI) jedoch noch nicht.

Das könnte sich aber bald ändern. Gemeinsam mit anderen Forscherinnen und Forschern versucht der KI-Wissenschafter Günter Klambauer an der Johannes-Kepler-Universität Linz künstlicher Intelligenz solche Fähigkeiten beizubringen – und sie dafür am Vorbild des menschlichen Gehirns zu trainieren. Ein Programm mit solchen Fähigkeiten könnte künftig etwa auch in sensiblen Bereichen wie in der Medizin oder bei gerichtlichen Verfahren zum Einsatz kommen, glaubt Klambauer.

Im Podcast spricht der KI-Experte darüber, wie das in Zukunft gelingen könnte, wie Sprachprogramme momentan lernen und warum wir KI zu häufig menschliche Eigenschaften zuschreiben.


Kommentare


Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.