Show newer

"We find that current LLMs perform significantly worse than clinicians on aggregate across all diseases [•••] In summary, LLMs do not reach the diagnostic accuracy of clinicians across all pathologies when functioning as second readers, and degrade further in performance when they must gather all information themselves. Thus, without extensive physician supervision, they would reduce the quality of care that patients receive and are currently unfit for the task of autonomous clinical decision-making.

Current LLMs are hasty and unsafe clinical decision-makers
In addition to poor diagnostic accuracy, LLMs often fail to order the exams required by diagnostic guidelines, do not follow treatment guidelines and are incapable of interpreting lab results, making them a risk to patient safety. [•••]"

nature.com/articles/s41591-024

An emerging model of intelligence finds flexible problem-solving capabilities at the cellular level and beyond – and it threatens to upend not just biology and genetics, but medicine, AI and consciousness research, among other things.

newatlas-com.cdn.ampproject.or

In Giappone le case editrici di manga hanno investito 5 milioni di dollari nell'intelligenza artificiale
L'obiettivo è abbattere i tempi di traduzione dei fumetti e aumentare l'export: coinvolti alcuni dei nomi principali del settore, tra cui Shueisha e Kadokawa

wired.it/article/intelligenza-

One pixel attack is a fascinating concept. It shows how vulnerable the neural networks are.

yt.artemislena.eu/watch?v=_y1t

Un paio di articoli molto interessanti che esplorano le possibilità di un attacco a una rete neurale artificiale basato su "adversarial machine learning".
In particolare, viene usato quello che in gergo è chiamato "one-pixel attack", un attacco nel quale basta modificare un solo pixel di una immagine data in input a una rete neurale per generare un errore di classificazione o mandare completamente nel pallone il sistema.
Lo studio qui impiega una tecnica molto simile ai criteri di un algoritmo genetico per generare ed esplorare diversi possibili pattern di attacco basati sulla alterazione di un solo pixel partendo da un insieme iniziale di pattern e facendolo "evolvere" (Differential Evolution) attraverso diverse generazioni.
C'è un mondo di metodologie e tecniche nella AI del tutto sconosciuto al "main stream" e che invece ha potenzialità enormi in diversi ambiti applicativi. La AI dei LLMs e dei chatbot è quella che va consumata.

1) arxiv.org/pdf/1902.02947

2) arxiv.org/pdf/1710.08864v2

Ma come si fa a fare ricerche di questo genere?
Hanno valutato le performance dei LLMs attraverso test psicologici elaborati nell'ambito della Theory of Mind (ToM). Non è la prima volta che vengono somministrati test psicologici a una macchina per ricavarne conclusioni infondate. Qui siamo proprio all'assurdo. La ToM non è la Bibbia e nemmeno un teorema di meccanica razionale. È una teoria cognitivista non condivisa da tutti, nemmeno tra i cognitivisti stessi. Ma soprattutto, valutare le performance dei LLMs attraverso le teorie cognitiviste che prendono a modello il funzionamento dei computer per spiegare i processi di pensiero umani è una piena e assurda tautologia. Una barzelletta!
La ricerca, manco a dirlo, è stata fatta nei laboratori Google. Se la cantano e se la suonano.



Link alla ricerca: arxiv.org/abs/2405.18870

Gli elefanti si chiamano l'un l'altro con nomi unici.

Per le analisi dei dati i ricercatori hanno impiegato anche modelli di Machine Learning su un'enorme quantità di suoni generati da elefanti africani. I risultati sembrano indicare che gli elefanti si rivolgono l'un l'altro con suoni unici in un modo che è assimilabile a ciò che gli umani fanno con i nomi.

pbs.org/newshour/science/afric

Dalle truffe via mail sempre più realistiche alla rivelazione di informazioni private sui cittadini, fino agli immancabili deepfake: ChatGPT e gli altri sistemi generativi sono assistenti perfetti anche per i malintenzionati

repubblica.it/tecnologia/2024/

«This is the first of several short interviews on AI and agency. In the interest of our guests’ and audience’s time, the interviews will be brief, but each interview is supplemented with a reading list that allows readers to explore the topic in greater depth.
We are fortunate to have Professor Tim Crane join us for this first interview. Professor Crane is a leading thinker in the philosophy of mind, perception, and metaphysics, and he holds the position of Professor of Philosophy and Pro-Rector at the Central European University (CEU) in Vienna. He is particularly known for his work on intentionality and his stance known as “psychologism”. He is interviewed by Majid D. Beni.»

philosophyofbrains.com/2024/06

AI Godmode: jailbroken version of ChatGP
...ecco perché il Papa a 'sto giro si è pronunciato sulla AI 😂

x.com/elder_plinius/status/179

«Non è certo una novità che l'auto-incensamento della bolla tecnologica abbia oscurato i lati peggiori di questo settore, dalla propensione all'evasione fiscale alla invasione della privacy e allo sfruttamento della nostra attenzione. L'impatto ambientale del settore è un problema chiave, ma le aziende che producono tali modelli sono rimaste notevolmente silenziose sulla quantità di energia che consumano, probabilmente perché non vogliono suscitare la nostra preoccupazione.»

amp-theguardian-com.cdn.amppro

I patetici appelli per un impiego "etico" della AI quando nei consigli di amministrazione dei maggiori attori coinvolti nel suo sviluppo siedono regolarmente generali e agenti di intelligence. Un teatrino inconcludente buono solo a tenere in stato soporifero milioni di persone.

x.com/Snowden/status/180161072

I Large Language Models incoraggiano l’idea mistica e fraudolenta di un oracolo che ci risolve la vita. All’opposto c’è la “intelligenza artificiale ristretta” che aiuta la ricerca scientifica

huffingtonpost.it/blog/2024/05

Show older
Qoto Mastodon

QOTO: Question Others to Teach Ourselves
An inclusive, Academic Freedom, instance
All cultures welcome.
Hate speech and harassment strictly forbidden.