Sensation: KI kann rechnen, verrät aber nicht wie!

Hallo!

Ist da draußen noch jemand, der glaubt, KI sei spannend aber am Ende doch nur ein neuer Software Hype?

Keine Sorge, ich werde jetzt nicht die Unterschiede zwischen „normaler“ Software und KI-Modellen erklären. Da gibt es wesentlich kompetentere Menschen als mich.

Stattdessen sind hier zwei Links zu einer faszinierenden Veröffentlichung von Anthropic.

Worum geht’s?
Anthropic hat untersucht, wie ihr Sprachmodell Claude „denkt“. Dabei hat sie die Methode des sogenannten Circuit-Tracing verfeinert und z.B. herausgefunden, wie Claude einfache Additionsaufgaben löst. Es tut das eben nicht, wie wir es von einer rechnenden Software erwarten würden, sondern entwickelt eine eigene Methode. Diese Methode ist vergleichsweise umständlich und führt zum richtigen Ergebnis. Noch erstaunlicher, ist dass Claude auf die Frage, wie es zu dem Ergebnis gekommen ist, eine gängige Methode schildert, die es kennt (ich addiere die Einer, dann die Zehner, dann addiere ich beides), nicht aber, was es wirklich getan hat.

Die Artikel lohnen sich, sie schildern noch weitere – fast schon bizarre – Erkenntnisse.

Warum ist das so bemerkenswert?
Wir haben hier ein sehr prominentes KI-Unternehmen, das seine eigenen Forscher:innen beauftragt, zu verstehen, wie ihr eigenes Produkt funktioniert. Stellt euch vor, Hersteller von ERP Software oder Game-Studios würden jemanden bitten, zu analysieren, was genau ihr System eigentlich tut. Und: sie wären überrascht vom Ergebnis!

Warum veröffentliche ich das?

Ich möchte mein Erstaunen mit euch teilen. Ist es nicht faszinierend, dass wir gerade live erleben, wie eine Technologie, die noch nicht einmal ihre Hersteller so richtig verstehen, vor unseren Augen die Welt verändert? Wir stehen eben nicht vor einem weiteren Software-Update.
Wir stehen inmitten einer technischen Revolution.

KI-Systeme sind eben nicht dafür gemacht, genau das zu tun, was wir ihnen einprogrammieren.
Sie sind dafür trainiert, eigene Wege zur Lösung zu finden. Und ja – manchmal ist diese Lösung falsch. Das ist aber kein Bug. Das ist das Neue daran.

Wenn ich ein System brauche, das exakt das tut, was ich von ihm erwarte – dann brauche ich keine KI. KI erschafft Neues. Was daraus gemacht wird, liegt ganz bei uns.

https://www.anthropic.com/research/tracing-thoughts-language-model

https://www.heise.de/hintergrund/Anthropic-erforscht-LLMs-und-entdeckt-dabei-unerwartet-bizarre-Ergebnisse-10334400.html

Zurück
Zurück

KI im Realitätscheck: stolpern, experimentieren, beobachten

Weiter
Weiter

Freedom Cities - What?