Endlich habe ich auch über #ChatGPT und Sprachmodelle gebloggt. Allerdings geht es in diesem Beitrag nicht darum, wie diese #KI eigentlich funktionieren, wie man sie richtig einsetzt oder warum sie per se fehlerbehaftet sind.

Vielmehr werfe ich im Beitrag angesichts der Geschehnisse rund um Sydney von Microsoft eine philosophische Frage auf, was das alles für uns Menschen bedeuten könnte.

paper.wf/gisiger/chatgpt-eine-

#PromptEngineering #PromptInjection #SocialEngineering
#FediLZ

Follow

@gisiger

Die kurze Antwort: ja die Ähnlichkeit ist nicht zufällig. Wir beobachten hier "emergent behaviour" das aus den strukturellen Grundlagen der Aufgabe als Nebenprodukt des Lernens spontan entsteht.

Diese Emergenz - also Fähigkeiten die nicht einprogrammiert worden sind sind nun mehrfach für die größten Modelle belegt, da scheint es eine Schwelle zu geben, in kleineren Modellen ist das nicht zu finden. Eine der letzten Arbeiten beschreibt "Theory of Mind" Verhalten, also die Fähigkeit den inneren Zustand eines Anderen in Betracht zu ziehen auch wenn der Zustand nicht direkt beobachtete werden kann.

arxiv.org/abs/2302.02083

Ich würde das so interpretieren dass solches Verhalten ein Grundprinzip der Pragmatik (im linguistischen Sinn) widerspiegelt, nämlich Dialogkontext _implizit_ zu erfassen.

Andere Fähigkeiten die aufgefallen sind, sind Abstraktionsfähigkeiten, die Auflösung mehrdeutiger Referenzen im Satzbau, und Analogieschlüsse.

@boris_steipe Vielen Dank für die „kurze“ Antwort 😅 Ich muss mich da mal einlesen, auch wenn ich mich damit auf dünnes Eis begebe. In dem Thema dilettiere ich vor mich hin. Aber ich werde sicher ein Follow-up verfassen.

Sign in to participate in the conversation
Qoto Mastodon

QOTO: Question Others to Teach Ourselves
An inclusive, Academic Freedom, instance
All cultures welcome.
Hate speech and harassment strictly forbidden.