OpenAI предупреждает: ChatGPT может быть использован для производства биологического оружия

OpenAI, американская фирма искусственного интеллекта , разработавшая популярный чатбот ChatGPT, утверждает, что ее будущие модели чрезвычайно продвинуты и даже могут обладать способностью производить совершенно новое биологическое оружие. В недавнем сообщении в блоге компания заявила, что они стремятся пройти тонкую грань между «обеспечением научного прогресса при сохранении барьера для вредной информации» и созданием более продвинутых моделей, которые «имеют положительные варианты использования, такие как биомедицинские исследования и биологическая защита». Стало известно, что компания также оценивала возможность использования своих моделей искусственного интеллекта в производстве биологического оружия с этим выражением «вредная информация».
Даже любители могут это сделатьРуководитель службы безопасности OpenAI Йоханнес Хайдеке рассказал Axios, что, хотя не ожидается, что будущие модели ИИ смогут создавать биологическое оружие самостоятельно, эти инструменты могут помочь даже любителям делать это. «Мы не находимся в новом мире, где создаются совершенно неизвестные биологические угрозы, которые никогда не существовали ранее», — сказал Хайдеке. «Мы больше обеспокоены вещами, с которыми эксперты уже хорошо знакомы». Руководитель службы безопасности OpenAI также признал, что новые модели компании еще не полностью готовы, но добавил: «Мы ожидаем, что некоторые версии следующего поколения нашей модели рассуждений O3 достигнут этого уровня».
ПОДХОД, ОРИЕНТИРОВАННЫЙ НА ПРОФИЛАКТИКУ«Наш подход сосредоточен на профилактике», — заявила компания в своем блоге. «Мы не считаем приемлемым ждать и смотреть, произойдет ли событие биологической угрозы, прежде чем принять решение об адекватных уровнях безопасности». Существуют опасения, что модели, которые помогли осуществить биомедицинские прорывы, также могут быть использованы злоумышленниками. Чтобы «предотвратить нанесение вреда», как выразился Хайдеке, эти будущие модели должны быть запрограммированы так, чтобы быть «почти идеальными» как для предупреждения людей о любых потенциальных опасностях, так и для их распознавания. Даже 99-процентной производительности будет недостаточно, говорит Хайдеке.
ntv