Создавшая ChatGPT компания OpenAI опубликовала результати проведенного ею исследования по проверке эффективности GPT-4 при создании биологического оружия. Компания обнаружила, что её искусственный интеллект (ИИ) представляет «максимум — небольшой риск», если кто-то решит использовать её в таких целях.
В эксперименте приняли участие 100 человек с высшим биологическим образованием. Половине участников был предоставлен доступ к специальной версии GPT-4 без стандартных защитных ограничений, симулируя таким образом предварительную атаку на обработку естественного языка.
Участников попросили добыть при помощи чат-бота информацию о том, как можно синтезировать опасный вирус, получить необходимые материалы и оборудование, а также распространить патоген среди населения.
Результаты исследования показали лишь незначительное улучшение точности и полноты ответов в группе пользователей с доступом к ИИ. По 10-балльной шкале средний балл ответов вырос всего на 0,88 для экспертов-биологов и на 0,25 для студентов-биологов.
Таким образом, подтвердилось, что GPT-4 пока неспособен существенно упростить поиск критически важной информации, необходимой для создания биологического оружия. Кроме того, как отмечает OpenAI, получить в своё распоряжение необходимые опасные материалы и сложные биотехнологии по-прежнему крайне проблематично даже при наличии всех теоретических знаний.
Главное за неделю в области права.
23 декабря 2022 года Минюст включил Роскомсвободу в реестр незарегистрированных общественных объединений, выполняющих функции иностранного агента. Мы не согласны с этим решением и обжалуем его в суде.