Компания OpenAI выразила обеспокоенность тем, что будущие версии их моделей искусственного интеллекта (ИИ) могут значительно упростить создание биологического оружия, даже для людей без большого научного опыта. Это заявление было сделано в интервью изданию *Fortune*.
Руководство OpenAI ожидает, что новые модели ИИ будут классифицироваться как системы высокого риска в рамках их внутренней системы готовности, разработанной для оценки и минимизации угроз, исходящих от мощных ИИ-систем. Как отметил глава отдела систем безопасности компании Йоханнес Хайдеке, преемники текущей модели «рассуждающий ИИ» (o3) уже могут достичь этого уровня.
В своем блоге OpenAI также подчеркнула усиление тестирования безопасности для минимизации рисков, связанных с использованием моделей для создания биологического оружия. Компания опасается, что без должных мер безопасности ИИ может «повысить уровень знаний новичков», предоставляя людям с ограниченными научными знаниями инструменты для создания опасных биоугроз. Однако, как уточнили в OpenAI, речь идет не о разработке новых, ранее неизвестных биологически опасных веществ, а о возможности воспроизведения уже известных угроз.
Отмечается, что те же возможности нейросетей, которые могут способствовать прорывам в медицине, также могут быть использованы злоумышленниками в опасных целях. Это подчеркивает необходимость создания почти идеальных систем тестирования и безопасности для таких технологий.