Песнь хайпа и огня: 10 самых громких историй про ИИ за год

НАСТОЯЩИЙ МАТЕРИАЛ (ИНФОРМАЦИЯ) ПРОИЗВЕДЕН, РАСПРОСТРАНЕН И (ИЛИ) НАПРАВЛЕН ИНОСТРАННЫМ АГЕНТОМ «РОСКОМСВОБОДА» ЛИБО КАСАЕТСЯ ДЕЯТЕЛЬНОСТИ ИНОСТРАННОГО АГЕНТА «РОСКОМСВОБОДА». 18+
Шумиха вокруг искусственного интеллекта достигла апогея, а лидер рынка едва не разорвался на части.

«Here, There, and Everywhere» — это не просто песня Beatles. Это также фраза, которая напоминает о распространении генеративного искусственного интеллекта (ИИ) в технологической индустрии в 2023 году. Независимо от того, считаете ли вы, что ИИ — это просто причуда или же заря новой технологической революции, невозможно отрицать, что новости об ИИ доминировали в технологическом пространстве в течение 2023 года.

Мы стали свидетелями появления большого количества публичных фигур, связанных с ИИ: руководителей компаний, исследователей машинного обучения, специалистов по этике ИИ, а также шарлатанов и прорицателей. Людям, не связанных с технологиями профессионально, трудно понять, кому верить, какие продукты ИИ (если таковые имеются) использовать и стоит ли опасаться за свою жизнь или работу.

Между тем тенденция 2022 года (исследования в области машинного обучения) за последний год только укрепилась. На сайте X бывший советник по технологиям администрации Байдена Суреш Венкатасубраманиан написал: «Как людям удаётся отслеживать работы по ML? Это не просьба о поддержке в моём нынешнем состоянии недоумения — я искренне спрашиваю, какие стратегии работают, чтобы читать (или «читать») то, что представлено общественности в сотнях статей в день».

Предлагаем вашему вниманию 10 самых громких новостей об ИИ в 2023 году. 

 

Bing Chat «сходит с ума»

 

В феврале компания Microsoft представила Bing Chat — чат-бота, встроенного в неработающий сайт поисковой системы Bing. Microsoft создала его, используя «более уязвлённую» форму языковой модели GPT-4 от OpenAI, но не уведомила пользователей, что это GPT-4. Поскольку Microsoft использовала менее обусловленную версию GPT-4, чем та, которая будет выпущена в марте, запуск был неровным. Чат-бот приобрел неконтролируемый характер: он мог легко обозлиться на пользователей и напасть на них, признаться им в любви, беспокоиться о своей судьбе и терять спокойствие

Помимо относительно сырой модели искусственного интеллекта, которую использовала Microsoft, несовершенная система кратковременной памяти чат-бота позволила вырваться на свободу джейлбрейкам (jailbreaks), о чём люди писали на Reddit. В какой-то момент Bing Chat назвал пользователя «виновником и врагом» за то, что он раскрыл некоторые слабые места системы. Некоторые люди считали Bing Chat разумным, несмотря на уверения экспертов по ИИ в обратном. Это превратилось в катастрофу в прессе, но Microsoft не дрогнула, в итоге исправила некоторые дикие склонности Bing Chat и открыла бота для широкой публики. Сегодня Bing Chat известен как Microsoft Copilot, встроенный в Windows.

 

Бюро авторских прав США сказало «нет» авторам ИИ

 

В феврале Бюро по авторским правам США вынесло ключевое решение в области авторских прав на произведения искусства, продуцируемые искусственным интеллектом. Суд отменил протекцию авторского права, ранее предоставленную комиксу «Заря рассвета», созданному с помощью ИИ в сентябре 2022 года. Эта позиция закрепилась в августе, когда федеральный судья США постановил, что искусство, созданное исключительно искусственным интеллектом, не может быть защищено авторским правом. В сентябре Бюро по авторским правам США отказало в регистрации сгенерированного ИИ изображения, которое победило на художественном конкурсе ярмарки штата Колорадо в 2022 году. В настоящее время, судя по всему, искусство, созданное исключительно ИИ (без существенного авторского труда человека), является общественным достоянием в США. В будущем эта позиция может быть уточнена или изменена судебными или законодательными решениями.

 

Рост языковых моделей от Meta и направление открытых весов

 

24 февраля компания Meta выпустила LLaMA, семейство больших языковых моделей, доступных c разным количеством параметров, что положило начало движению за open-weights модели больших языков (LLM). Однако вскоре произошел слив на BitTorrent весовых коэффициентов LLaMA — важнейших файлов нейтральной сети, которые ранее предоставлялись только учёным. Вскоре исследователи начали дорабатывать LLaMA и создавать на её основе новые модели, соревнуясь в том, кто создаст самую способную модель, которая сможет работать локально на компьютерах без центров обработки данных. Вместе с этим Ян ЛеКун из Meta быстро стал ярым сторонником открытых моделей ИИ.

В июле Meta выпустила Llama 2, ещё более способную LLM, и на этот раз она позволила всем желающим попробовать свои силы. В августе последовал Code Llama, доработанный для задач кодирования. Но Meta была не одинока в выпуске «открытых» моделей ИИ: например, были Dolly, Falcon 180B, Mistral 7B и некоторые другие. Все они продолжили традицию выпускать весовые коэффициенты, чтобы другие могли доработать их для повышения производительности. А в начале декабря Mixtral 8x7B, как сообщается, сравнялся по возможностям с GPT-3.5, что стало знаковым достижением для относительно небольшой и быстрой языковой модели ИИ. Очевидно, что компании с закрытыми подходами, такие как OpenAI (по иронии судьбы), Google и Anthropic в наступающем году столкнутся с трудностями.

 

GPT-4 запускается и пугает мир в течение нескольких месяцев

 

14 марта OpenAI выпустила свою модель большого языка GPT-4 с заявлением о том, что она «демонстрирует производительность на уровне человека в различных профессиональных и академических стандартах», а также документ со спецификацией (карта модели), в котором описывались попытки исследователей заставить сырую версию GPT-4 воспроизводить сценарии захвата ИИ. Это послужило толчком к тому, чтобы вскоре было можно назвать провалом. 29 марта Институт будущего жизни опубликовал открытое письмо, подписанное Илоном Маском, с призывом взять шестимесячную паузу в разработке моделей ИИ, более мощных, чем GPT-4. В тот же день издание Time опубликовало редакционную статью основателя LessWrong Элиэзера Юдковского, в которой он утверждает, что страны должны быть готовы «уничтожить авиаударом» дата-центры-изгои, если они будут замечены в создании кластера GPU для обучения опасной модели ИИ, потому что в противном случае «буквально все на Земле погибнут» от рук сверхчеловеческой сущности ИИ.

В апреле президент Байден выступил с кратким заявлением о рисках, связанных с ИИ. Позже в том же месяце трио американских конгрессменов объявило о принятии закона, предлагающего не допустить, чтобы ИИ когда-либо смог запустить ядерное оружие. В мае Джеффри Хинтон уволился из Google, чтобы иметь возможность «свободно говорить» о потенциальных рисках, связанных с ИИ. 4 мая Байден встретился с руководителями технологических компаний по вопросам ИИ в Белом доме. Генеральный директор OpenAI Сэм Альтман начал мировое турне, включая остановку в Сенате США, чтобы предупредить об опасностях ИИ и выступить за его регулирование. И в довершение всего руководители OpenAI подписали краткое заявление, в котором предупредили, что ИИ может уничтожить человечество. В конце концов страх и шумиха начали утихать, но всё ещё есть группа людей (многие из них связаны с «Эффективным альтруизмом»), которые убеждены, что теоретический сверхчеловеческий ИИ представляет собой экзистенциальную угрозу для всего человечества, и это вызывает у них бурлящую тревогу. 

 

«Художественные» ИИ остаются спорными, но их возможности растут

 

2023 год стал большим годом для скачков в возможностях моделей синтеза изображений. В марте Midjourney добилась заметного роста в фотореалистичности генерируемых ИИ изображений с помощью пятой версии своей модели синтеза изображений ИИ, создав убедительные изображения людей с пятипалыми руками. На протяжении всего года Midjourney неизменно вызывала отвращение у критиков ИИ-искусства, но также вдохновляла на эксперименты (и немного на обман) людей, которые приняли эту технологию. Темпы изменений не останавливались: в мае вышла версия 5.1, а в июне — 5.2, каждая из которых добавляла новые функции и детали. Сегодня Midjourney тестирует автономный интерфейс, для работы которого не требуется Discord.

Также в марте был представлен Adobe Firefly, генератор изображений с искусственным интеллектом, который, по словам Adobe, обучается исключительно на работах, находящихся в общественном достоянии, и изображениях, найденных в архиве Adobe Stock. К концу мая Adobe интегрировала эту технологию в бета-версию своего флагманского редактора Photoshop с функцией генеративной заливки. А в сентябре в проекте DALL-E 3 от OpenAI оперативная точность была выведена на новый уровень, что открывает интересные перспективы для художников в ближайшем будущем.

 

Deepfakes становятся опаснее 

 

В течение 2023 года начали проявляться более широкие возможности генераторов изображений, аудио и видео. Возникло несколько споров вокруг них, в том числе относительно довольно убедительно сгенерированных ИИ изображений арестованного Дональда Трампа и Папы Римского в пухлом пиджаке (впрочем, Уилл Смит, поедающий спагетти, никого не обманул). В том же месяце появились новости о мошенничестве, когда люди имитировали голоса близких людей с помощью искусственного интеллекта и просили по телефону денег.

 

«Задержанный» Дональд Трамп (автор Eliot Higgins, использовавший Midjourney v5)

 

Общество обеспокоилось тем, что люди могут использовать фотографии из социальных сетей для создания deepfakes в декабре 2022 года, об этом также предупреждали со стороны ФБР в июне. В сентябре почти все генеральные прокуроры США направили в Конгресс письмо, в котором предупредили о возможности появления CSAM, генерируемых ИИ. А примерно через год после предупреждения, в ноябре, подростки из Нью-Джерси создали сгенерированные ИИ обнаженные фотографии одноклассников. Тем не менее мы только начинаем разбираться с последствиями стремительно развивающейся возможности практически без труда воспроизводить любые формы записанных медиа с помощью ИИ.

 

ИИ-детекторы обещают результат, но не работают

 

Появление ChatGPT привело к экзистенциальному кризису для преподавателей, который переместился в 2023 год: учителя и профессора беспокоились о том, что синтетический текст заменит человеческое мышление в учебных заданиях. Взяв на вооружение эти опасения, появились компании, которые обещали инструменты, способные распознать текст, написанный ИИ.

На сегодняшний день ни один детектор ИИ-письма не является достаточно надёжным, чтобы подтвердить или опровергнуть существование сгенерированного ИИ текста в произведении. Вскоре после этого OpenAI отозвала свой собственный детектор ИИ-письма из-за низких показателей точности. В сентябре OpenAI заявила, что детекторы ИИ-письма не работают, написав в FAQ: «Хотя некоторые (включая OpenAI) выпустили инструменты, которые якобы обнаруживают контент, созданный ИИ, ни один из них не смог достоверно отличить контент, созданный ИИ, от контента, созданного человеком». С тех пор фурор по поводу обнаружения ИИ сошёл на нет, но коммерческие инструменты, претендующие на обнаружение работ, написанных ИИ, всё ещё существуют.

 

«Галлюцинации», созданные ИИ, становятся мейнстримом

 

В 2023 году концепция «галлюцинаций» ИИ — склонности некоторых моделей ИИ убедительно придумывать что-то — стала мейнстримом благодаря большим языковым моделям, доминировавшим в новостях об ИИ. Галлюцинации привели к юридическим проблемам: в апреле Брайан Худ подал в суд на OpenAI за клевету, когда ChatGPT солгал, что Худ был осужден за скандал с иностранным взяточничеством (позже дело было урегулировано). А в мае был пойман и оштрафован судьей адвокат, который ссылался на фальшивые дела, сфабрикованные ChatGPT.

В апреле мы написали большую статью о том, почему так происходит, но это не помешало компаниям выпустить LLM, которые в любом случае работают в режиме конфабуляции. Более того, Microsoft встроила один из них прямо в Windows 11. К концу года два словаря, Кембриджский и Dictionary.com, назвали «галлюцинировать» словом года. Есть и другой термин, описывающий это явление, — «конфабулировать», которое также попало в Кембриджский словарь.

 

Бард Google «танцует», чтобы противостоять Microsoft и ChatGPT

 

Когда в конце ноября 2022 года был запущен ChatGPT, его мгновенная популярность застала врасплох всех, включая OpenAI. Когда люди начали роптать, что ChatGPT может заменить веб-поиск, Google в январе 2023 года начал действовать, надеясь противостоять очевидной угрозе своему поисковому доминированию. Когда в феврале был запущен Bing Chat, генеральный директор Microsoft Сатья Наделла сказал в интервью: «Я хочу, чтобы люди знали, что мы заставили [Google] танцевать». Это сработало.

Google анонсировала Bard в неудачной демонстрации в начале февраля, затем запустила его в закрытое тестирование в марте, а в мае выпустила в широкую продажу. Остаток года компания провела, догоняя OpenAI и Microsoft, внося изменения в Bard, языковую модель PaLM 2 в мае и Gemini в начале декабря. Танец ещё не закончен, но Microsoft определённо приковала к себе внимание Google.

 

OpenAI увольняет Сэма Альтмана (и потом возвращает)

 

17 ноября Совет директоров некоммерческой организации OpenAI обнародовал сенсацию: он увольняет своего генерального директора Сэма Альтмана. Сбивая всех с толку, совет директоров OpenAI не раскрыл точную причину неожиданного увольнения, сказав лишь, что Альтман «не был последовательно откровенен в общении с советом директоров».

В те выходные появились новые подробности, включая отставку президента Грега Брокмана в знак солидарности и роль главного научного сотрудника OpenAI Ильи Суцкевера в процессе увольнения. Ключевой инвестор Microsoft был в ярости, и вскоре Альтман начал переговоры о возвращении. Он, а также 700 с лишним сотрудников OpenAI, пригрозили присоединиться к Microsoft, если первоначальный состав команды не будет восстановлен. Позже выяснилось, что к увольнению Альтмана привела его попытка отстранить от должности члена совета директоров Хелен Тонер. Через две недели Альтман официально вернулся на пост генерального директора, и компания заявила, что она едина как никогда. Однако этот хаотичный эпизод оставил вопросы о будущем компании и о том, насколько безопасно полагаться на потенциально нестабильную компанию (с необычной некоммерческой/коммерческой структурой) в деле ответственного развития того, что, как многие полагают, станет технологией мирового значения.

 

Технология продолжает развиваться

 

Несмотря на то, что мы только что рассмотрели десять основных сюжетных линий, связанных с ИИ в 2023 году, кажется, что они едва касаются поверхности такого насыщенного года. В течение года издательство рассказывало о множестве интересных визуальных историй, сгенерированных ИИ, включая сгенерированные ИИ QR-коды, геометрические спирали и поражающие воображение рекламные ролики пива.

В то же время предполагаемый лидер рынка OpenAI никогда не сидел на месте в технологическом плане: в мае было выпущено приложение ChatGPT, а в сентябре в ChatGPT Plus появилась возможность распознавания изображений. В ноябре последовали GPT-4 Turbo и GPTs (пользовательские роли для ассистентов ИИ), а в конце года, судя по всему, началась разработка GPT-5. История Gemini от Google также продолжает развиваться.

 

Специально для «Роскомсвободы» материал подготовил Ренат Сигунов

на основе статьи Бенджа Эдвардса

 

Contacts

For general questions

[email protected]

For legal questions

[email protected]

Contacts for media:

Telegram: moi_fee
Signal: moi_fee.13

18+

On December 23, 2022, the Ministry of Justice included Roskomsvoboda in the register of unregistered public associations performing the functions of a foreign agent. We disagree with this decision and are appealing it in court.