La fragilità evidenziata in questi nuovi risultati aiuta a supportare la ricerca precedente che suggerisce che l'uso di LLM di pattern matching probabilistici manca della comprensione formale dei concetti sottostanti necessari per capacità di ragionamento matematico veramente affidabili.
"Gli LLM attuali non sono in grado di generare un ragionamento logico autentico", ipotizzano i ricercatori sulla base di questi risultati. "tentano di replicare i passaggi dei ragionamenti osservati nei loro dati di addestramento".
#ai
https://arstechnica.com/ai/2024/10/llms-cant-perform-genuine-logical-reasoning-apple-researchers-suggest/