«Here, There, and Everywhere» — это не просто песня Beatles. Это также фраза, которая напоминает о распространении генеративного искусственного интеллекта (ИИ) в технологической индустрии в 2023 году. Независимо от того, считаете ли вы, что ИИ — это просто причуда или же заря новой технологической революции, невозможно отрицать, что новости об ИИ доминировали в технологическом пространстве в течение 2023 года.
Мы стали свидетелями появления большого количества публичных фигур, связанных с ИИ: руководителей компаний, исследователей машинного обучения, специалистов по этике ИИ, а также шарлатанов и прорицателей. Людям, не связанных с технологиями профессионально, трудно понять, кому верить, какие продукты ИИ (если таковые имеются) использовать и стоит ли опасаться за свою жизнь или работу.
Между тем тенденция 2022 года (исследования в области машинного обучения) за последний год только укрепилась. На сайте X бывший советник по технологиям администрации Байдена Суреш Венкатасубраманиан написал: «Как людям удаётся отслеживать работы по ML? Это не просьба о поддержке в моём нынешнем состоянии недоумения — я искренне спрашиваю, какие стратегии работают, чтобы читать (или «читать») то, что представлено общественности в сотнях статей в день».
Предлагаем вашему вниманию 10 самых громких новостей об ИИ в 2023 году.
В феврале компания Microsoft представила Bing Chat — чат-бота, встроенного в неработающий сайт поисковой системы Bing. Microsoft создала его, используя «более уязвлённую» форму языковой модели GPT-4 от OpenAI, но не уведомила пользователей, что это GPT-4. Поскольку Microsoft использовала менее обусловленную версию GPT-4, чем та, которая будет выпущена в марте, запуск был неровным. Чат-бот приобрел неконтролируемый характер: он мог легко обозлиться на пользователей и напасть на них, признаться им в любви, беспокоиться о своей судьбе и терять спокойствие.
Помимо относительно сырой модели искусственного интеллекта, которую использовала Microsoft, несовершенная система кратковременной памяти чат-бота позволила вырваться на свободу джейлбрейкам (jailbreaks), о чём люди писали на Reddit. В какой-то момент Bing Chat назвал пользователя «виновником и врагом» за то, что он раскрыл некоторые слабые места системы. Некоторые люди считали Bing Chat разумным, несмотря на уверения экспертов по ИИ в обратном. Это превратилось в катастрофу в прессе, но Microsoft не дрогнула, в итоге исправила некоторые дикие склонности Bing Chat и открыла бота для широкой публики. Сегодня Bing Chat известен как Microsoft Copilot, встроенный в Windows.
В феврале Бюро по авторским правам США вынесло ключевое решение в области авторских прав на произведения искусства, продуцируемые искусственным интеллектом. Суд отменил протекцию авторского права, ранее предоставленную комиксу «Заря рассвета», созданному с помощью ИИ в сентябре 2022 года. Эта позиция закрепилась в августе, когда федеральный судья США постановил, что искусство, созданное исключительно искусственным интеллектом, не может быть защищено авторским правом. В сентябре Бюро по авторским правам США отказало в регистрации сгенерированного ИИ изображения, которое победило на художественном конкурсе ярмарки штата Колорадо в 2022 году. В настоящее время, судя по всему, искусство, созданное исключительно ИИ (без существенного авторского труда человека), является общественным достоянием в США. В будущем эта позиция может быть уточнена или изменена судебными или законодательными решениями.
24 февраля компания Meta выпустила LLaMA, семейство больших языковых моделей, доступных c разным количеством параметров, что положило начало движению за open-weights модели больших языков (LLM). Однако вскоре произошел слив на BitTorrent весовых коэффициентов LLaMA — важнейших файлов нейтральной сети, которые ранее предоставлялись только учёным. Вскоре исследователи начали дорабатывать LLaMA и создавать на её основе новые модели, соревнуясь в том, кто создаст самую способную модель, которая сможет работать локально на компьютерах без центров обработки данных. Вместе с этим Ян ЛеКун из Meta быстро стал ярым сторонником открытых моделей ИИ.
В июле Meta выпустила Llama 2, ещё более способную LLM, и на этот раз она позволила всем желающим попробовать свои силы. В августе последовал Code Llama, доработанный для задач кодирования. Но Meta была не одинока в выпуске «открытых» моделей ИИ: например, были Dolly, Falcon 180B, Mistral 7B и некоторые другие. Все они продолжили традицию выпускать весовые коэффициенты, чтобы другие могли доработать их для повышения производительности. А в начале декабря Mixtral 8x7B, как сообщается, сравнялся по возможностям с GPT-3.5, что стало знаковым достижением для относительно небольшой и быстрой языковой модели ИИ. Очевидно, что компании с закрытыми подходами, такие как OpenAI (по иронии судьбы), Google и Anthropic в наступающем году столкнутся с трудностями.
14 марта OpenAI выпустила свою модель большого языка GPT-4 с заявлением о том, что она «демонстрирует производительность на уровне человека в различных профессиональных и академических стандартах», а также документ со спецификацией (карта модели), в котором описывались попытки исследователей заставить сырую версию GPT-4 воспроизводить сценарии захвата ИИ. Это послужило толчком к тому, чтобы вскоре было можно назвать провалом. 29 марта Институт будущего жизни опубликовал открытое письмо, подписанное Илоном Маском, с призывом взять шестимесячную паузу в разработке моделей ИИ, более мощных, чем GPT-4. В тот же день издание Time опубликовало редакционную статью основателя LessWrong Элиэзера Юдковского, в которой он утверждает, что страны должны быть готовы «уничтожить авиаударом» дата-центры-изгои, если они будут замечены в создании кластера GPU для обучения опасной модели ИИ, потому что в противном случае «буквально все на Земле погибнут» от рук сверхчеловеческой сущности ИИ.
В апреле президент Байден выступил с кратким заявлением о рисках, связанных с ИИ. Позже в том же месяце трио американских конгрессменов объявило о принятии закона, предлагающего не допустить, чтобы ИИ когда-либо смог запустить ядерное оружие. В мае Джеффри Хинтон уволился из Google, чтобы иметь возможность «свободно говорить» о потенциальных рисках, связанных с ИИ. 4 мая Байден встретился с руководителями технологических компаний по вопросам ИИ в Белом доме. Генеральный директор OpenAI Сэм Альтман начал мировое турне, включая остановку в Сенате США, чтобы предупредить об опасностях ИИ и выступить за его регулирование. И в довершение всего руководители OpenAI подписали краткое заявление, в котором предупредили, что ИИ может уничтожить человечество. В конце концов страх и шумиха начали утихать, но всё ещё есть группа людей (многие из них связаны с «Эффективным альтруизмом»), которые убеждены, что теоретический сверхчеловеческий ИИ представляет собой экзистенциальную угрозу для всего человечества, и это вызывает у них бурлящую тревогу.
2023 год стал большим годом для скачков в возможностях моделей синтеза изображений. В марте Midjourney добилась заметного роста в фотореалистичности генерируемых ИИ изображений с помощью пятой версии своей модели синтеза изображений ИИ, создав убедительные изображения людей с пятипалыми руками. На протяжении всего года Midjourney неизменно вызывала отвращение у критиков ИИ-искусства, но также вдохновляла на эксперименты (и немного на обман) людей, которые приняли эту технологию. Темпы изменений не останавливались: в мае вышла версия 5.1, а в июне — 5.2, каждая из которых добавляла новые функции и детали. Сегодня Midjourney тестирует автономный интерфейс, для работы которого не требуется Discord.
Также в марте был представлен Adobe Firefly, генератор изображений с искусственным интеллектом, который, по словам Adobe, обучается исключительно на работах, находящихся в общественном достоянии, и изображениях, найденных в архиве Adobe Stock. К концу мая Adobe интегрировала эту технологию в бета-версию своего флагманского редактора Photoshop с функцией генеративной заливки. А в сентябре в проекте DALL-E 3 от OpenAI оперативная точность была выведена на новый уровень, что открывает интересные перспективы для художников в ближайшем будущем.
В течение 2023 года начали проявляться более широкие возможности генераторов изображений, аудио и видео. Возникло несколько споров вокруг них, в том числе относительно довольно убедительно сгенерированных ИИ изображений арестованного Дональда Трампа и Папы Римского в пухлом пиджаке (впрочем, Уилл Смит, поедающий спагетти, никого не обманул). В том же месяце появились новости о мошенничестве, когда люди имитировали голоса близких людей с помощью искусственного интеллекта и просили по телефону денег.
«Задержанный» Дональд Трамп (автор — Eliot Higgins, использовавший Midjourney v5)
Общество обеспокоилось тем, что люди могут использовать фотографии из социальных сетей для создания deepfakes в декабре 2022 года, об этом также предупреждали со стороны ФБР в июне. В сентябре почти все генеральные прокуроры США направили в Конгресс письмо, в котором предупредили о возможности появления CSAM, генерируемых ИИ. А примерно через год после предупреждения, в ноябре, подростки из Нью-Джерси создали сгенерированные ИИ обнаженные фотографии одноклассников. Тем не менее мы только начинаем разбираться с последствиями стремительно развивающейся возможности практически без труда воспроизводить любые формы записанных медиа с помощью ИИ.
Появление ChatGPT привело к экзистенциальному кризису для преподавателей, который переместился в 2023 год: учителя и профессора беспокоились о том, что синтетический текст заменит человеческое мышление в учебных заданиях. Взяв на вооружение эти опасения, появились компании, которые обещали инструменты, способные распознать текст, написанный ИИ.
На сегодняшний день ни один детектор ИИ-письма не является достаточно надёжным, чтобы подтвердить или опровергнуть существование сгенерированного ИИ текста в произведении. Вскоре после этого OpenAI отозвала свой собственный детектор ИИ-письма из-за низких показателей точности. В сентябре OpenAI заявила, что детекторы ИИ-письма не работают, написав в FAQ: «Хотя некоторые (включая OpenAI) выпустили инструменты, которые якобы обнаруживают контент, созданный ИИ, ни один из них не смог достоверно отличить контент, созданный ИИ, от контента, созданного человеком». С тех пор фурор по поводу обнаружения ИИ сошёл на нет, но коммерческие инструменты, претендующие на обнаружение работ, написанных ИИ, всё ещё существуют.
В 2023 году концепция «галлюцинаций» ИИ — склонности некоторых моделей ИИ убедительно придумывать что-то — стала мейнстримом благодаря большим языковым моделям, доминировавшим в новостях об ИИ. Галлюцинации привели к юридическим проблемам: в апреле Брайан Худ подал в суд на OpenAI за клевету, когда ChatGPT солгал, что Худ был осужден за скандал с иностранным взяточничеством (позже дело было урегулировано). А в мае был пойман и оштрафован судьей адвокат, который ссылался на фальшивые дела, сфабрикованные ChatGPT.
В апреле мы написали большую статью о том, почему так происходит, но это не помешало компаниям выпустить LLM, которые в любом случае работают в режиме конфабуляции. Более того, Microsoft встроила один из них прямо в Windows 11. К концу года два словаря, Кембриджский и Dictionary.com, назвали «галлюцинировать» словом года. Есть и другой термин, описывающий это явление, — «конфабулировать», которое также попало в Кембриджский словарь.
Когда в конце ноября 2022 года был запущен ChatGPT, его мгновенная популярность застала врасплох всех, включая OpenAI. Когда люди начали роптать, что ChatGPT может заменить веб-поиск, Google в январе 2023 года начал действовать, надеясь противостоять очевидной угрозе своему поисковому доминированию. Когда в феврале был запущен Bing Chat, генеральный директор Microsoft Сатья Наделла сказал в интервью: «Я хочу, чтобы люди знали, что мы заставили [Google] танцевать». Это сработало.
Google анонсировала Bard в неудачной демонстрации в начале февраля, затем запустила его в закрытое тестирование в марте, а в мае выпустила в широкую продажу. Остаток года компания провела, догоняя OpenAI и Microsoft, внося изменения в Bard, языковую модель PaLM 2 в мае и Gemini в начале декабря. Танец ещё не закончен, но Microsoft определённо приковала к себе внимание Google.
17 ноября Совет директоров некоммерческой организации OpenAI обнародовал сенсацию: он увольняет своего генерального директора Сэма Альтмана. Сбивая всех с толку, совет директоров OpenAI не раскрыл точную причину неожиданного увольнения, сказав лишь, что Альтман «не был последовательно откровенен в общении с советом директоров».
В те выходные появились новые подробности, включая отставку президента Грега Брокмана в знак солидарности и роль главного научного сотрудника OpenAI Ильи Суцкевера в процессе увольнения. Ключевой инвестор Microsoft был в ярости, и вскоре Альтман начал переговоры о возвращении. Он, а также 700 с лишним сотрудников OpenAI, пригрозили присоединиться к Microsoft, если первоначальный состав команды не будет восстановлен. Позже выяснилось, что к увольнению Альтмана привела его попытка отстранить от должности члена совета директоров Хелен Тонер. Через две недели Альтман официально вернулся на пост генерального директора, и компания заявила, что она едина как никогда. Однако этот хаотичный эпизод оставил вопросы о будущем компании и о том, насколько безопасно полагаться на потенциально нестабильную компанию (с необычной некоммерческой/коммерческой структурой) в деле ответственного развития того, что, как многие полагают, станет технологией мирового значения.
Несмотря на то, что мы только что рассмотрели десять основных сюжетных линий, связанных с ИИ в 2023 году, кажется, что они едва касаются поверхности такого насыщенного года. В течение года издательство рассказывало о множестве интересных визуальных историй, сгенерированных ИИ, включая сгенерированные ИИ QR-коды, геометрические спирали и поражающие воображение рекламные ролики пива.
В то же время предполагаемый лидер рынка OpenAI никогда не сидел на месте в технологическом плане: в мае было выпущено приложение ChatGPT, а в сентябре в ChatGPT Plus появилась возможность распознавания изображений. В ноябре последовали GPT-4 Turbo и GPTs (пользовательские роли для ассистентов ИИ), а в конце года, судя по всему, началась разработка GPT-5. История Gemini от Google также продолжает развиваться.
Специально для «Роскомсвободы» материал подготовил Ренат Сигунов
на основе статьи Бенджа Эдвардса
The main news of the week in the field of law.
On December 23, 2022, the Ministry of Justice included Roskomsvoboda in the register of unregistered public associations performing the functions of a foreign agent. We disagree with this decision and are appealing it in court.