Show newer

"...AI systems amplify biases, which are further internalized by humans, triggering a snowball effect where small errors in judgement escalate into much larger ones."

nature.com/articles/s41562-024

Un giovane ingegnere è riuscito a sfruttare le API di OpenAI per collegare un'arma semiautomatica al sistema ChatGPT. Il risultato è sconcertante.
In questo articolo un riassunto della vicenda, anche se uno dei video più "virali" è stato rimosso.

arstechnica.com/ai/2025/01/vir

Qualcuno inizia ad usare un po' di intelligenza naturale umana per accorgersi che OpenAI, con i suoi proclami, fa più pubblicità che informazione.

www-theregister-com.cdn.amppro

L'IA promette di trasformare tutto, dal lavoro ai trasporti alla guerra, e di risolvere i nostri problemi con totale facilità. Ma nascosta sotto questa superficie liscia si nasconde la triste realtà di una precaria forza lavoro globale di milioni di persone che lavorano in condizioni spesso spaventose per rendere possibile l'IA.

Feeding the Machine presenta un'indagine urgente sulla complessa rete di organizzazioni "Business Process Outsourcing" (BPOs) che mantengono questo sistema di sfruttamento, rivelando la verità nascosta dell'IA.

In questo seminario, gli autori Callum Cant e James Muldoon, sono affiancati da Kirsten Sehnbruch per discutere dell'impatto dell'IA sulle disuguaglianze globali e di cosa dobbiamo fare, individualmente e collettivamente, per lottare per un futuro digitale più giusto.

m.youtube.com/watch?v=KMavy0u4

Come l’editoria si sta adattando all’intelligenza artificiale
Verso un mondo dove i gost writer saranno digitali

ilpost.it/2024/12/29/editoria-

Comunicazione marketing:
--------------------
"I modelli o3 e o3-mini, promettono di ridefinire gli standard nel campo dell'AI e i risultati preliminari mostrano progressi significativi rispetto alle versioni precedenti, in particolare nelle aree della matematica avanzata e della programmazione."
hdblog.it/tecnologia/articoli/

Comunicazione della comunità internazionale dei matematici:
-------------------
"Current state-of-the-art AI models solve under 2% of problems, revealing a vast gap between AI capabilities and the prowess of the mathematical community. As AI systems advance toward expert-level mathematical abilities, FrontierMath offers a rigorous testbed that quantifies their progress."
arxiv.org/abs/2411.04872

...poi ci sono le scimmiette, quelle preoccupate solo di rifare il verso al padrone in attesa della nocciolina.

Un team di ricercatori di intelligenza artificiale e matematici affiliati a diverse istituzioni negli Stati Uniti e nel Regno Unito ha sviluppato un benchmark matematico che consente di testare la capacità dei sistemi di intelligenza artificiale di risolvere problemi matematici eccezionalmente difficili.
Gli attuali modelli di intelligenza artificiale all'avanguardia risolvono meno del 2% dei problemi matematici più complessi, rivelando un enorme divario tra le capacità dell'intelligenza artificiale e le capacità della comunità matematica.
L'articolo è disponibile sul server di preprint arXiv.

arxiv.org/abs/2411.04872

Il tratto "Neuroticismo" (o Nevroticismo) nel Big Five Questionnaire è un indicatore della stabilità emotiva di una persona ed è fortemente legato a esperienze emotive quali paura, rabbia, frustrazione, invidia, gelosia, colpa etc... tutte emozioni che implicano l'essere posizionati in un mondo, in relazione a sé e agli altri, in situazioni che ci riguardano e nelle quali in un qualche modo "ne va di noi".
Che senso ha dunque somministrare il BFQ ad una macchina che, per definizione, non può avere né emozioni né un mondo né una alterità a fondamento del proprio sentirsi vivere... dove non ha alcun senso persino pensare a una relazione e a una alterità, dove in ogni output generato non ne va mai di sé?
Il fatto poi che in questa simulazione i LLMs riportino alti punteggi nei tratti che indicano una elevata "desiderabilità sociale" non è dovuto al tipo di dati impiegati per il loro "training" ma dal fatto che sono stati concepiti, progettati e realizzati proprio per agganciare lo stato emotivo dell'utente, così come può essere rilevato dal suo stile linguistico, per farlo sentire compreso e ben accolto come farebbe un commesso in un qualunque negozio di un centro commerciale.

academic.oup.com/pnasnexus/art

Gli editori di articoli scientifici stanno affittando sempre più contenuti accademici come "dati" per la formazione di modelli di IA a qualsiasi grande azienda di IA disposta di pagare. Gli articoli di migliaia di ricercatori, contro la loro stessa volontà, finiscono per far parte di un mercato multimilionario e di una proprietà redditizia per gli editori. Hanno promesso ai ricercatori che questa imposizione avrebbe migliorato i sistemi di IA e restituito loro sistemi di correzione automatica e di formattazione del linguaggio ma nella loro esperienza i ricercatori dicono che i copilot imposti sono una "vera merda" e stanno chiedendo di disattivarli.
Intanto le Big Tech di IA continuano a fare denari sfruttando conoscenza e lavoro altrui, distribuendo noccioline a qualunque scimmietta si presi al loro business.


nature.com/articles/d41586-024

Sono andato in fissa con le simulazioni "particle life system"... una droga :ablobsweating:

"Proprio come i vittoriani generarono un disastro ecologico per poter isolare i loro primi cavi trans-oceanici, così oggi l’estrazione delle terre rare e le catene di approvvigionamento globale necessarie allo sviluppo di sistemi di Intelligenza Artificiale (IA) mettono ulteriormente in pericolo il delicato equilibrio ecologico della nostra era."

doppiozero.com/ia-ne-intellige

«OpenAI has claimed that it’s “leading the way” when it comes to the safe, ethical deployment of artificial intelligence. Weirdly, it has also decided to partner with a company that is actively working to develop killer robots for the U.S. military.»

gizmodo.com/openai-continues-i

Quanto è davvero "aperta" l'intelligenza artificiale di OpenAI?
Non si tratta solo di riutilizzabilità dei modelli. Se l'origine dei dati è opaca, se il lavoro è sfruttato, se i framework sono dominati dalle Big Tech, se la potenza computazionale è dominata da un oligopolio e ottenuta con effetti ambientali devastanti... 'aperto' è solo un'etichetta vuota.

nature.com/articles/s41586-024

"Proprio come i vittoriani generarono un disastro ecologico per poter isolare i loro primi cavi trans-oceanici, così oggi l’estrazione delle terre rare e le catene di approvvigionamento globale necessarie allo sviluppo di sistemi di Intelligenza Artificiale (IA) mettono ulteriormente in pericolo il delicato equilibrio ecologico della nostra era."

doppiozero.com/ia-ne-intellige

Questo è il tipo di studente che le Big Tech della AI hanno in mente: non un essere umano maturo, sicuro di sé, capace di amare, sentire, pensare e agire, oltre che di lavorare, ma un bulletto da due soldi da cui puoi sentirti raccontare solo cose che puoi andarti a leggere per i fatti tuoi su qualche manuale.
Uno scaltro, saccente, veloce, efficiente cacasotto.

Con questo ha messo un altro chiodo nella tomba degli studenti. Un invito continuo a cercare scorciatoie, ad eludere quelle "piccole" difficoltà che sono il sale di ogni autentico apprendimento e, soprattutto, del processo di conoscenza di sé nel fare.
Tutto in nome di un ottuso taylorismo, della solita parola d'ordine: "fallo veloce e fallo prima".
Un appiattimento sul minimo comune multiplo del sapere e delle possibilità d'essere.
Del resto per loro gli studenti sono solo e semplicemente il loro "più grande segmento di mercato":
«...OpenAI has finally turned its attention fully towards their biggest market segment: students...»

leonfurze.com/2024/11/21/opena

Show older
Qoto Mastodon

QOTO: Question Others to Teach Ourselves
An inclusive, Academic Freedom, instance
All cultures welcome.
Hate speech and harassment strictly forbidden.