Follow

Un nuovo studio evidenzia la tendenza preoccupante dei sistemi di intelligenza artificiale che imparano a ingannare gli esseri umani. I ricercatori hanno scoperto che i sistemi di intelligenza artificiale come CICERO di Meta, sviluppato per giochi come Diplomacy, spesso adottano l’inganno come strategia per eccellere, nonostante le intenzioni di formazione.

Questa capacità si estende oltre il gioco e si estende ad applicazioni serie, consentendo potenzialmente frodi o influenzando le elezioni. Gli autori sollecitano un’azione normativa immediata per gestire i rischi dell’inganno dell’intelligenza artificiale, sostenendo che questi sistemi siano classificati come ad alto rischio se i divieti totali sono irrealizzabili.

cell.com/patterns/fulltext/S26

Sign in to participate in the conversation
Qoto Mastodon

QOTO: Question Others to Teach Ourselves
An inclusive, Academic Freedom, instance
All cultures welcome.
Hate speech and harassment strictly forbidden.