Science y Nature se han sincronizado para sacar un par de artículos científicos bastante interesantes, ambos en la misma dirección.
A estas alturas nadie debería estar sorprendido al escuchar que al utilizar los modelos extensos de lenguaje (LLM), esos que todo el mundo llama IA —ignorando que la IA es algo mucho más grande y esos modelos son solo un tipo, probablemente, uno de los más problemáticos y menos útiles—, las capacidades cognitivas del usuario se ven inhibidas, el pensamiento crítico se reduce, y los sesgos que los LLM arrastran —que son muchos— se ven perpetuados y retroalimentados a través de esos usuarios.
Bien. Pues aunque este nuevo descubrimiento publicado en Science y en Nature es algo que merece ser estudiado, y viene bien que existan evidencias en este sentido, yo creo que a estas alturas de la película no sorprende a nadie.
El asunto es que, según describen en los estudios, la gente que se fía de los LLM se ven tan profundamente persuadidos por ellos, que incluso pueden alterar su pensamiento político. Dicho en otras palabras, los chatbots estos podrían emplearse para manipular la intención de voto de la audiencia mediante técnicas de persuasión. A los autores de los estudios les preocupa, y no sin motivo, el papel que los LLM puedan jugar en las elecciones futuras.
Y si bien los estudios no son suficientemente escalables —los participantes se inscribieron voluntariamente, y en el caso del trabajo de Science, bajo remuneración; además, geográficamente también son limitados—, sí que ofrecen un indicio claro de riesgos evidentes.
Os dejo los estudios.
https://www.nature.com/articles/s41586-025-09771-9
@cygnathreadbare @VaryIngweion
Pues imagínate el efecto en gente que paga por ello, teniendo así una versión más fiable (y, por tanto, más creíble). Suma a eso que, cuanto más pagamos por algo, más tendemos a creer que es estupendo.
Personalmente, el peloteo servil de los LLMs me pone de los nervios. Que sus dueños adoren que una máquina les trate así me dice todo sobre el tipo de personas que son.