Follow

La fragilità evidenziata in questi nuovi risultati aiuta a supportare la ricerca precedente che suggerisce che l'uso di LLM di pattern matching probabilistici manca della comprensione formale dei concetti sottostanti necessari per capacità di ragionamento matematico veramente affidabili.
"Gli LLM attuali non sono in grado di generare un ragionamento logico autentico", ipotizzano i ricercatori sulla base di questi risultati. "tentano di replicare i passaggi dei ragionamenti osservati nei loro dati di addestramento".

arstechnica.com/ai/2024/10/llm

Sign in to participate in the conversation
Qoto Mastodon

QOTO: Question Others to Teach Ourselves
An inclusive, Academic Freedom, instance
All cultures welcome.
Hate speech and harassment strictly forbidden.