🧬🧠 Загроза створення біологічної зброї за допомогою ШІ вже не є теоретичною.
CEO OpenAI Сем Альтман в інтерв'ю Axios (https://www.axios.com/2026/04/06/behind-the-curtain-sams-superintelligence-new-deal) заявив, що суспільство має готуватися до реального сценарію, за якого терористичні групи використовуватимуть потужні моделі штучного інтелекту для створення нових, раніше не існуючих патогенів — вірусів та бактерій, спеціально сконструйованих для завдання максимальної шкоди.
За словами Альтмана, моделі ШІ вже стають (https://www.coindesk.com/tech/2026/04/06/openai-ceo-urges-u-s-to-prepare-for-ai-superintelligence-risks-and-gains) достатньо потужними у сфері біології, щоб допомогти людині без спеціальної освіти пройти шлях від ідеї до створення небезпечного збудника. Те, що раніше вимагало років роботи в лабораторії та команди вчених, поступово стає доступним для значно ширшого кола людей.
Попередження Альтмана збігається з нещодавнім дослідженням Google DeepMind про вразливість (https://deepmind.google/blog/protecting-people-from-harmful-manipulation/) ШІ-агентів до маніпуляцій та з дискусією про те, що системи на кшталт Claude Mythos вже здатні виявляти (https://t.me/pandoras_box_ua/45210) вразливості на рівні, недосяжному для людини.