Follow

🧬🧠 Загроза створення біологічної зброї за допомогою ШІ вже не є теоретичною.

CEO OpenAI Сем Альтман в інтерв'ю Axios (axios.com/2026/04/06/behind-th) заявив, що суспільство має готуватися до реального сценарію, за якого терористичні групи використовуватимуть потужні моделі штучного інтелекту для створення нових, раніше не існуючих патогенів — вірусів та бактерій, спеціально сконструйованих для завдання максимальної шкоди.

За словами Альтмана, моделі ШІ вже стають (coindesk.com/tech/2026/04/06/o) достатньо потужними у сфері біології, щоб допомогти людині без спеціальної освіти пройти шлях від ідеї до створення небезпечного збудника. Те, що раніше вимагало років роботи в лабораторії та команди вчених, поступово стає доступним для значно ширшого кола людей.

Попередження Альтмана збігається з нещодавнім дослідженням Google DeepMind про вразливість (deepmind.google/blog/protectin) ШІ-агентів до маніпуляцій та з дискусією про те, що системи на кшталт Claude Mythos вже здатні виявляти (t.me/pandoras_box_ua/45210) вразливості на рівні, недосяжному для людини.

Sign in to participate in the conversation
Qoto Mastodon

QOTO: Question Others to Teach Ourselves
An inclusive, Academic Freedom, instance
All cultures welcome.
Hate speech and harassment strictly forbidden.