Show newer

Le risposte neurofisiologiche al primo minuto di un brano musicale possono lasciar prevedere la probabilità di successo. Applicando sistemi di machine learning ai segnali neurofisiologici è possibile prevedere il successo di un brano musicale con una accuratezza del 97%. La metodologia, conosciuta come "neuroforecasting", sarà sempre più impiegata per assemblare artificialmente brani musicali con una elevata probabilità di successo e, quindi, di vendita sul mercato. Un altro aspetto della creatività, dopo quello grafico e visuale, che rischierà di essere alterato (reso altro) dai sistemi di intelligenza artificiale.

neurosciencenews-com.cdn.amppr

Un altro articolo dove apprendimento e comprensione sono ridotti al lancio dei dadi, solo perché torna comodo. Non dico necessariamente Heidegger, che mette a fondamento del senso la silenziosa relazione pratico attuativa con le cose del mondo, ma almeno René Thom che ha elaborato una intera matematica di morfogenesi del senso a partire dal corpo, dalla gestualità e dalla interazione con gli oggetti.
La attuale, ridotta ai , è una collezione di supercazzole cognitiviste fondate sulla calcolabilità, la presenza e la quantità, là dove l'umano impara e comprende a partire da "ciò che manca":

«Denkende lernen aus dem Fehlenden nachhaltiger.»
[Heidegger, Kant und das Problem der Metaphysik. Vorwort zur zweiten Auflage]

intuitiveai.substack.com/p/why

È la barbarie (Michel Henry).
Mai come in questo ultimo anno mi è accaduto di leggere tante nefandezze sostenute da interessi economici e date in pasto a una folla sempre più priva di possibilità di comprensione.

youtube.com/watch?v=IsE_Pas2OQ

Nel registrare delle sessioni di simulazione con dei sistemi AI mi piace poi mixarli con un motivo musicale che faccia da contrappunto alla prospettiva razionalista che è a fondamento di tutta la AI. In questa versione dell'automa di Conway, conosciuto come "The Game of Life", ho scelto i versi del Rigoletto di Giuseppe Verdi. Possiamo calcolare quanto ci pare, ma alla fine è quel "frequente palpitar" che muove e sostiene la vita 🙂

Nelle "celebrazioni" per la sostituzione da parte delle AI di ogni figura professionale, gli esperti mondiali di etica non hanno ancora nemmeno accennato a come dovrebbero essere redistribuiti i guadagni e il tempo liberato dai lavori ripetitivi e faticosi (robotiti).
Quando c'è da prendere posizioni, all'improvviso, si spengono le luci e si chiudono i siparietti. Comunque, immagino che anche i reparti antisommossa saranno sostituiti da opportuni battaglioni robotizzati, che poi alla fine non faranno molto la differenza con quelli attuali.
«La Storia si ripete sempre due volte: la prima come tragedia, la seconda come farsa»

invidious.0011.lt/watch?v=Au2M

Il presupposto a fondamento di una decisione non sta nelle modalità o nelle procedure seguite per elaborarla ma nella capacità di assumere una responsabilità, di risponderne a sé e agli altri.
Demandare alle AI un'autonomia decisionale significa aver preso la decisione di disertare la nostra responsabilità e di appaltare la nostra vita a una macchina. Gli unici ad aver fatto una scelta - e a risponderne - siamo noi, la macchina non fa alcuna scelta né prende decisioni ma, semplicemente, calcola e non è una metafora ma la parola più attinente a ciò che realmente accade in un calcolatore.
Continuare a usare parole e concetti che attengono alla fenomenologia dell'umano per descrivere gli automatismi delle macchine significa contribuire, consapevolmente o no, ad alimentare una narrativa distorta e scollata dalla vita, una scelta o una decisione che dovremmo ben meditare perché invoca delle inevitabili responsabilità.

The history of technology suggests that the greatest risks come not from the tech, but from the people who control the technology using it to accumulate power and wealth.

aisnakeoil.substack.com/p/is-a

Se avete 10 min di tempo vi consiglio questo breve intervento del prof. Damasio, un neuroscienziato abbastanza noto. Non mi sono sempre ritrovato nelle sue prospettive, ma qui dice cose non banali che dovrebbero far riflettere (anche) sui bias e il tipo di "intelligenza" che viene data per scontata in relazione alla AI, in tutte le sue forme. Quei bias purtroppo sono poi amplificati nella costruzione di narrative sulla AI utili più al business che non alla scienza.
Il titolo dato al video è fuorviante, frutto anch'esso di bias. Sarebbe stato più adeguato l'uso di 'Who' al posto del 'What'... "Chi" è il sé, e non "cosa" è.

invidious.nogafa.org/watch?v=J

"Il lungotermismo ha tutte le caratteristiche di una ideologia nata all’interno della cultura informatica, nutrendosi di un immaginario millenarista di tipo fantascientifico, al servizio del progetto economico di Silicon Valley"

agendadigitale.eu/cultura-digi

Odifreddi, Elon Musk e Bill Gates non sono esattamente le persone più attendibili in tema di etica, e nemmeno in tema di AI. Continuare a soffiare sul problema (falso) della AI come evento che fa paura significa continuare a tenere in ombra il pericolo più reale e autentico (e scomodo) delle società private che ci speculano sopra per ottimizzare i loro profitti incuranti del bene sociale, o quello dell'impiego dei sistemi di automazione per prendere decisioni (militari, gestionali, politiche, amministrative...) che spostano la responsabilità dagli esseri umani al nulla, o ancora quello dei dati (i nostri) che vengono impiegati per controllare e prevedere ogni evento... L'ignoranza a cui fa riferimento la canzone di Guccini - citato nella intervista - non è quella che ignora il dispositivo o il principio di Archimede ma quella che ignora la storia e le ragioni della vita. Occorre prendere posizione, e non nei confronti delle macchine. Tutto il resto è un teatrino mediatico parte del problema.

radio24.ilsole24ore.com/progra

Eeeecco perché avevo la sensazione che le prime reti neurali artificiali che compilavo con il mio vecchio 286 fossero più performanti di quelle che compilo oggi! 🙂

arxiv.org/abs/2305.10947

Non basta cambiare l'etichetta a un fenomeno per comprenderlo, se siamo incapaci di pensarlo al di fuori dei pregiudizi che ci portiamo inevitabilmente dietro, oltre i limiti delle prospettive culturali e professionali.
Il motivo per cui si straparla di AI oggi, dicendo una montagna di fregnacce, è che una parte di essa è diventata oggetto di pesanti investimenti per delle compagnie quotate in borsa che hanno bisogno di una narrativa marketing. Fin quando di AI se ne occupavano solo accademici, ricercatori e pochi altri "addetti ai lavori" si straparlava di altro, dicendo una montagna di fregnacce su altre questioni a fondamento di altri investimenti e operazioni marketing.
Scriveranno un articolo nelle Annalen der Physik, con una nuova costante universale: il numero di fregnacce per unità di tempo commerciale utili a sostenere gli interessi temporanei delle società più impegnate in nuovi investimenti.

blog.quintarelli.it/2019/11/le

I fenomeni di emergenza in un sistema in evoluzione sembrano essere legati alla comparsa di processi dinamici nuovi rispetto alla loro qualità e imprevedibili sulla base della caratteristica iniziale del sistema. Per questo motivo è difficile modellizzare i fenomeni di emergenza perché il modello in uso può diventare improvvisamente inadeguato a delineare nuove manifestazioni dinamiche e quindi la vera identità del sistema.

In questa simulazione (nel primo video la registrazione di una sessione) ho cercato di costruire un metamodello che descriva alcuni fenomeni di emergenza durante l'evoluzione del sistema dinamico organismo-ambiente.
Usando algoritmi genetici ho realizzato un sistema di agenti artificiali che interagiscono risolvendo una versione spaziale del Dilemma del Prigioniero Iterato (Axelrod, 1984; Axelrod e Dion, 1988).

Il sistema, compresso tra i vincoli di una crescente complessità interna e l'impossibilità di scindersi, si mantiene spontaneamente entro valori di entropia che gli consentono di mantenere coerenza e "identità" nel tempo, permettendogli di far emergere diversi nuovi equilibri di Nash nella tabella dei payoff ( cultura? economia? politica?...) che regola gli scambi tra agenti artificiali; i nuovi equilibri di Nash emergenti nella tabella dei payoff facilitano l'emergere di alcuni "clan" che si replicano secondo le dinamiche genetiche del Cross-Over.

Per ogni generazione, le azioni del “clan vincente” contribuiscono a modificare la tabella dei payoff secondo regole più vantaggiose per la loro logica di interazione (cooperare/rifiutare/defezionare).

Ogni volta il nuovo equilibrio di Nash emergente viene mantenuto per alcune generazioni, oscillando tra diversi valori di entropia, finché un nuovo "clan" di agenti virtuali prevale sugli altri, orientando l'intero sistema verso l'emergere di un nuovo equilibrio di Nash nella tabella dei payoff.

Da quando non si fa altro che parlare di ChatGPT, la AI è ridotta ai LLM e tutti sembra stiano improvvisamente scoprendo l'autorganizzazione, i fenomeni emergenti, la complessità... temi e ambiti di ricerca al centro delle attività scientifiche ed epistemologiche almeno dagli anni '70/'80. Articoli ed interventi che odorano di muffa e naftalina pubblicati o presentati con pretese di originalità.
Continuo a rimanere più divertito che sorpreso dal chiacchiericcio intorno alla .
retinatendencias.com/civilizac

Show older
Qoto Mastodon

QOTO: Question Others to Teach Ourselves
An inclusive, Academic Freedom, instance
All cultures welcome.
Hate speech and harassment strictly forbidden.