Риски создания биоружия с ИИ вызывают тревогу в OpenAI

freepik
Компания OpenAI выразила обеспокоенность тем, что будущие версии их моделей искусственного интеллекта (ИИ) могут значительно упростить создание биологического оружия, даже для людей без большого научного опыта. Это заявление было сделано в интервью изданию *Fortune*.
Руководство OpenAI ожидает, что новые модели ИИ будут классифицироваться как системы высокого риска в рамках их внутренней системы готовности, разработанной для оценки и минимизации угроз, исходящих от мощных ИИ-систем. Как отметил глава отдела систем безопасности компании Йоханнес Хайдеке, преемники текущей модели «рассуждающий ИИ» (o3) уже могут достичь этого уровня.
В своем блоге OpenAI также подчеркнула усиление тестирования безопасности для минимизации рисков, связанных с использованием моделей для создания биологического оружия. Компания опасается, что без должных мер безопасности ИИ может «повысить уровень знаний новичков», предоставляя людям с ограниченными научными знаниями инструменты для создания опасных биоугроз. Однако, как уточнили в OpenAI, речь идет не о разработке новых, ранее неизвестных биологически опасных веществ, а о возможности воспроизведения уже известных угроз.
Отмечается, что те же возможности нейросетей, которые могут способствовать прорывам в медицине, также могут быть использованы злоумышленниками в опасных целях. Это подчеркивает необходимость создания почти идеальных систем тестирования и безопасности для таких технологий.