Хакер взломал OpenAI, раскрыв внутренние секреты и вызвав опасения по поводу национальной безопасности
В начале прошлого года неизвестный хакер проник во внутренние системы обмена сообщениями OpenAI, похитив у сотрудников детали о работе технологий компании. Хотя хакер не получил доступ к системам, содержащим ключевые технологии ИИ, инцидент вызвал серьезные опасения по поводу безопасности внутри компании и даже поднял вопросы о национальной безопасности США.Взлом произошел на онлайн-форуме, где сотрудники обсуждали новейшие технологии OpenAI. Хотя основные системы компании не были скомпрометированы, некоторая конфиденциальная информация все же была раскрыта. В апреле 2023 года руководство OpenAI сообщило об инциденте сотрудникам и совету директоров, но решило не предавать его огласке, аргументируя это тем, что данные клиентов и партнеров не были украдены, а хакер, вероятно, был отдельным лицом без связей с правительством.Леопольд Ашенбреннер — технический менеджер программ в OpenAI, раскритиковал меры безопасности компании, предположив, что они недостаточны для предотвращения доступа иностранных противников к конфиденциальной информации. Позже он был уволен за утечку информации, что, по его утверждению, было политически мотивированным решением. OpenAI настаивает, что его увольнение не связано с его опасениями по поводу безопасности.Инцидент усилил опасения по поводу потенциальных связей с иностранными противниками, особенно с Китаем. Хотя OpenAI считает, что ее текущие технологии ИИ не представляют значительной угрозы национальной безопасности, утечка информации китайским специалистам могла бы помочь им быстрее продвинуть свои ИИ-технологии.В ответ на взлом OpenAI, как и другие компании, усиливает меры безопасности. Компания создала Комитет по безопасности и защите, включающий бывшего главу АНБ, для решения будущих рисков. Тем временем, федеральные и государственные регуляторы рассматривают возможность контроля за выпуском технологий ИИ и введения штрафов за вредные последствия, хотя эксперты полагают, что наиболее серьезные риски от ИИ будут в будущем.