Show newer

AI ghosts could be harmful for people’s mental health by interfering with the grief process. Grief takes time and there are many different stages that can take place over many years.
The key to overcoming mourning and loss is to return to generating life by opening new perspectives and possibilities of being, a movement that is difficult to do when you remain stuck in the past.

theconversation.com/ghostbots-

Il problema più grave qui non è tanto la possibile perdita dei posti di lavoro dei giornalisti quanto lo stravolgimento totale del senso del giornalismo, non più frutto di persone parte di un contesto sociale e storico nel quale sono, in qualche modo, posizionate ma di processi oscuri di ri-significazione di dati e segni senza alcun legame con la vita vissuta. Mi piacerebbe sapere come pensano di gestire il problema del "cannibalismo" informativo: gli algoritmi produrrebbero articoli, poi verrebbero addestrati e ri-aggiornati fornendo loro in pasto lo storico degli articoli generati artificialmente e pubblicati.
Che fine fa la vita vissuta in tutto questo?

adweek.com/media/google-paying

"Il web per come lo conoscevamo – di massa, aperto a tutti, generato anche dagli utenti e in larga parte gratuito – sta morendo davanti ai nostri occhi. Ucciso dalle intelligenze artificiali."

wired.it/article/internet-mort

Users Say Microsoft's AI Has Alternate Personality as Godlike AGI That Demands to Be Worshipped

futurism.com/microsoft-copilot

Quella di continuare a inseguire l'ultima esigenza del mercato, subordinando ogni altra questione umana e sociale (cultura, educazione, relazioni, salute...) ai bisogni di produzione e fatturato, è una idea ottusa e insostenibile.
Fino a qualche anno fa sembrava che i bambini non fossero degni nemmeno di essere al mondo se non avessero imparato a scrivere codice. Oggi che il codice è fornito dai nuovi oracoli digitali (con enormi problemi di vulnerabilità) e le macchine devono essere "addestrate" alla meglio per fornire servizi degni di essere pagati, all'improvviso la letteratura torna ad avere un valore ma solo perché aiuterebbe a scrivere meglio gli input per sistemi AI (prompt).... Anche basta.

tomshardware.com/tech-industry

Finalmente qualcuno ha messo a fuoco il problema delle sovraimplicazioni politiche dell'attuale AI. Adesso aspettiamo che qualcun'altra abbia la rivelazione in sogno, o sotto effetto di stupefacenti, delle sovraimplicazioni economiche 😂

centroriformastato.it/iniziati

L'articolo dice diverse cose condivisibili, ma se stiamo ancora a frasi tipo: "Il problema siamo noi che usiamo il coltello, non il coltello"; oppure: "L’intelligenza artificiale è un nome che descrive un modo di fare software"... stiamo messi davvero male. Per comprendere possibilità e limiti della AI non basta essere informatici e imprenditori.

wired.it/article/intelligenza-

«A multimodal large language model (MLLM) agent can receive instructions, capture images, retrieve histories from memory, and decide which tools to use. Nonetheless, red-teaming efforts have revealed that adversarial images/prompts can jailbreak an MLLM and cause unaligned behaviors. In this work, we report an even more severe safety issue in multi-agent environments, referred to as infectious jailbreak. It entails the adversary simply jailbreaking a single agent, and without any further intervention from the adversary, (almost) all agents will become infected exponentially fast and exhibit harmful behaviors. To validate the feasibility of infectious jailbreak, we simulate multi-agent environments containing up to one million LLaVA-1.5 agents, and employ randomized pair-wise chat as a proof-of-concept instantiation for multi-agent interaction. Our results show that feeding an (infectious) adversarial image into the memory of any randomly chosen agent is sufficient to achieve infectious jailbreak. Finally, we derive a simple principle for determining whether a defense mechanism can provably restrain the spread of infectious jailbreak, but how to design a practical defense that meets this principle remains an open question to investigate.»

arxiv.org/abs/2402.08567

Artificial Intelligence Is Stupid and Causal Reasoning Will Not Fix It

tinyurl.com/4d6pfpdu

Generative agents will change our society in weird, wonderful and worrying ways. Can philosophy help us get a grip on them?

aeon.co/essays/can-philosophy-

offre funzionalità automatizzate che promettono un risparmio di tempi nella scrittura del codice a favore del tempo speso nelle analisi del problema.

Non so quanto sia un bene affidarsi a questi tool, scrivere codice per me è sempre stato parte integrante dell'analisi stessa del problema, una sua articolazione.

pycaret.org/

Dopo aver lasciato letteralmente evaporare la persona e ogni possibilità di dialogo tra persone, la AI cerca di recuperare il valore della conflittualità che fonda ogni autentico dialogo facendola risorgere come simulazione. Una simulazione che dovrebbe facilitare il confronto e il dialogo tra entità precedentemente passate al fil di lama del pensiero ridotto a calcolo.

arxiv.org/abs/2402.07350

Show older
Qoto Mastodon

QOTO: Question Others to Teach Ourselves
An inclusive, Academic Freedom, instance
All cultures welcome.
Hate speech and harassment strictly forbidden.