30 ноября 2023 0 2968

Скандал в OpenAI: основатели вернулись, осадочек остался

На прошлой неделе глаза всего мира были прикованы к одному из самых громких скандалов в технологической индустрии: совет директоров OpenAI уволил двух основателей компании Сэма Альтмана и Грега Брокмана. На правление надавили инвесторы и потребовали отменить свое решение. Альтман выдвинул свои условия, на которые совет согласился, но опоздал с дедлайном. После этого Сэм отклонил предложение о возвращении и начал процесс переговоров о присоединении к Microsoft.

Вся команда OpenAI проявила солидарность — 700 из 770 сотрудников компании подписали открытое письмо, в котором потребовали от правления уйти в полном составе. Иначе они последуют за Альтманом под крыло техногиганта — Microsoft пообещал рабочие места для всех желающих. Как результат, спустя 5 дней после драматичного увольнения Альтман и Брокман вернулись в OpenAI, а большинство членов правления потеряли свои места. Скандал вскрыл сразу несколько закулисных проблем лидера отрасли AI и породил множество домыслов и слухов. Partnerkin анализирует, каким из них можно доверять.

Опасность создания искусственного интеллекта

Согласно информации, полученной изданием Reuters, перед увольнением Сэма Альтмана несколько ключевых исследователей компании написали письмо правлению, предупреждающее об открытии в области искусственного интеллекта, которое может угрожать человечеству.

Источники назвали это письмо одним из факторов, которые привели к увольнению Альтмана.

Секретный проект OpenAI, о котором шла речь в письме, получил рабочее название Q* — «Ку-Стар». Новая модель смогла решить некоторые математические задачи. Анонимный источник Reuters сообщил, что, несмотря на то, что Q* выполняет математику только на уровне учеников начальной школы, успешное выполнение тестов вселяет в исследователей большой оптимизм. Некоторые в OpenAI считают, что Q* может стать прорывом в исследованиях общего искусственного интеллекта — AGI.

Сэм не уведомил об этом правление. По-видимому, последствия этого прорыва были настолько пугающими, что совет директоров попытался отстранить Альтмана и объединиться с конкурентом «Anthropic», которые известны своей осторожностью в отношении развития ИИ. Это косвенно подтверждается публикацией в блоге OpenAI, в которой было объявлено об увольнении Сэма из-за того, что «Альтман не всегда был откровенен в общении с правлением».

В дополнении к презентации новых инструментов на DevDay в начале ноября, на саммите Азиатско-Тихоокеанского Экономического Сотрудничества в Сан-Франциско Альтман заявил, что большие достижения ближе, чем все думают:

Что-то качественно изменилось. Теперь я могу поговорить с этой штукой. Это похоже на компьютер из “Star Trek”, который мне всегда обещали… Четыре раза за всю историю OpenAI мне приходилось присутствовать в особой комнате, где мы обсуждаем новые открытия. И крайние встречи произошли за последние несколько недель. 

Днем позже правление уволило Альтмана.

Фигура основателя

Сэм Альтман — лидер компании, создавшей ChatGPT, воспринимается многими, как мессия — Стив Джобс от мира нейросетей. Но близкие к нему люди говорят об основателе OpenAI противоречиво.

 

Вы можете выбросить его на остров каннибалов, вернуться через 5 лет, и он там будет королем. Сэму Альтману не обязательно приносить прибыль, чтобы донести до инвесторов, что он добьется успеха с ними или без них. 

 

 

Так говорил о Сэме в 2008 году его наставник Пол Грэм — основатель Y Combinator. В 2014 году Грэм назначил 28-летнего Альтмана генеральным директором своего инкубатора, чем немало удивил лидеров индустрии. Пять лет спустя он прилетел из Великобритании в Сан-Франциско, чтобы выгнать своего протеже. Грэм опасался, что Альтман ставит свои собственные интересы выше интересов организации.

Бывший сотрудник OpenAI, исследователь машинного обучения Джеффри Ирвинг, который сейчас работает в Google DeepMind, написал, что не склонен поддерживать Альтмана после двух лет работы на него:

 

1. Он всегда был добр ко мне.

2. Он часто лгал мне в различных ситуациях.

3. Он обманывал, манипулировал и плохо относился к другим сотрудникам, включая моих близких друзей.

 

В начале октября Элиезер Юдковский, специалист по искусственному интеллекту и лидер движения «Pause AI», опубликовал в своем блоге на LessWrong статью. В ней он собрал десятки постов Энни Альтман, сестры Сэма, в которых она утверждает, что на протяжении всей жизни подвергалась различным формам насилия со стороны брата.

Юдковскому не удалось связаться с Энни, но есть ряд косвенных подтверждений того, что приведенные посты опубликованы сестрой Сэма Альтмана. В статье собраны все публичные заявления Энни относительно Сэма и своего психологического здоровья за последние годы.

Не стоит исключать того, что это могло быть частью кампании «Pause AI», направленной на дискредитацию публичных личностей, связанных с исследованиями в области искусственного интеллекта. Но эта информация вновь стала предметом обсуждений на фоне громкого увольнения и возвращения Альтмана в OpenAI. К ним присоединился даже Илон Маск. Миллиардер и один из первых инвесторов OpenAI прокомментировал пост Эшли Сент-Клер, в котором она возмутилась, что СМИ не пишут об обвинениях со стороны Энни Альтман:  

Рассел* воспринимается как угроза для истеблишмент-СМИ, а Сэм — нет. 

* Рассел Брэнд — комик, который в сентябре был обвинен в сексуальном насилии.

Конфликт интересов

Вильям Лигэйт — серийный предприниматель в технологической сфере, CEO «Good Pillows», написал в своем профиле в X пост следующего содержания:

Самые высокие ставки по RU, BY, KZ от прямого рекламодателя FONBET PARTNERS! К заливам!

Поскольку некоторые до сих пор не понимают, что происходит, позвольте мне представить вам “ведущего” члена правления — Адама Д’Анджело. У Адама есть компания “Poe”, которая перестала быть актуальной из-за GPTs. Адам был в ярости из-за того, что правление не уведомило его заранее. Адам манипулировал членами правления, утверждая, что существует экзистенциальный риск ИИ, а Сэм скрывал важную информацию. Целью Адама было враждебное поглощение OpenAI. Адам был зачинщиком всего. 

Действительно, Д’Анджело владеет компанией «Poe», которая предоставляет доступ к различным нейросетям через удобный чат-бот. В процитированном посте Д’Анджело представляет монетизацию уникальных ботов на базе ChatGPT. Через две недели после этого анонса OpenAI запустили кастомизируемые боты GPTs и собственный магазин приложений, что полностью повторяет задумку Д’Анджело.

Сам Д’Анджело отреагировал на эти обвинения молчаливой блокировкой Лигэйта в соцсети X.

Отметим, что Адам Д’Анджело — единственный член правления OpenAI, который сохранил свою позицию. 

На момент увольнения Сэма и Грега в совете директоров, помимо них, состояли:

  • Илья Суцкевер — главный научный сотрудник;
  • Адам Д'Анджело — фаундер Poe, генеральный директор Quora;
  • Таша МакКоли  — технологический предприниматель;
  • Хэлен Тонер — директор Джорджтаунского центра безопасности и технологий.

После триумфального возвращения основателей состав правления обновился:

Будто бы пытаясь утвердить репутацию Д’Анджело, на День Благодарения Сэм Альтман опубликовал пост о том, что провел праздник с Адамом.

Сэм Альтман: «Только что провел несколько отличных часов с Адамом Д’Анджело. Счастливого Дня Благодарения».

Пользователи соцсети X отреагировали на это реплаями с мемами над ситуацией:

Пользователь AutismCapital: «Съемка Адама Д’Анджело в этот День Благодарения».

Пользователь FreddieRaynolds: «Он до сих пор жив?» 

Обвинения в мизогинии

Вновь обратим внимание на изменившийся совет директоров. До судьбоносного скандала треть совета составляли женщины, обладающие значительным влиянием в технологической сфере.

Одна из них, Таша МакКоли — известный инженер-робототехник, генеральный директор «GeoSim Systems» — компании по разработке корпоративного программного обеспечения для сложных систем.

Другая, Хэлен Тонер — знаменитая исследовательница искусственного интеллекта. Хэлен курирует исследования CSET в области политики по отношению к ИИ. Хэлен изучала ситуацию с искусственным интеллектом в Китае, благодаря чему стала авторитетным специалистом в вопросах последствий ИИ для национальной безопасности. В недавней статье, написанной Хэлен для CSET, она подчеркнула важность поиска новых методов тестирования ИИ, выступила за обмен информацией о несчастных случаях с ИИ и международное сотрудничество для минимизации рисков.

От полного нуля до СЕО партнерки М1, — история Максима Стародубова

При назначении Хэлен в совет директоров OpenAI опубликовала пост в своем блоге. В нем сказано, что назначение Тонер «подтверждает нашу приверженность безопасному и ответственному внедрению технологий, чтобы искусственный интеллект принес пользу всему человечеству».

По поводу ее назначения высказались оба основателя, Сэм Альтман и Грег Брокман.

«Я очень ценю размышления Хэлен о долгосрочных рисках и последствиях ИИ. Я с нетерпением жду того влияния, которое она окажет на наше развитие», — Брокман.

«Хэлен привносит понимание глобального развития искусственного интеллекта с упором на безопасность… Мы рады добавить ее в наш совет директоров», — Альтман.

«Я твердо верю в цель организации — создание искусственного интеллекта на благо всех, и для меня большая честь иметь возможность внести свой вклад в эту миссию», — Хэлен Тонер, комментарий при назначении в совет директоров OpenAI.

Есть большая вероятность, что исследовательская работа Тонер по безопасности ИИ могла стать катализатором увольнений в OpenAI.

В работе Хэлен критикует OpenAI за выпуск ChatGPT в конце прошлого года. По ее словам, это вызвало необходимость ускорения исследований со стороны других компаний, что побудило конкурентов «обойти внутреннюю безопасность и процессы этической экспертизы».

По информации издания «New York Times», Альтман пожаловался в электронном письме, что исследование Хэлен равносильно критике со стороны члена правления и добавил, что это наносит ущерб OpenAI. Тонер защищала научную работу, как беспристрастный анализ проблем при разработке ИИ.

Сэм Альтман представляет собой коммерческие устремления, лежащие в основе технологии ИИ. Поэтому инвесторы приняли его сторону.

Тонер отражает движение эффективного альтруизма, которое хочет максимизировать пользу и ограничить вред от ИИ.

Похоже, что театральный скандал, который мы наблюдали, был противостоянием двух идеалов, и победили, как всегда, деньги.

Показательным стало и то, что в новом совете директоров не оказалось ни одной женщины. Тонер, при всей глубине ее познаний в сфере безопасности ИИ, осталась за бортом.

По поводу нового состава правления высказались многие исследователи и ученые в области искусственного интеллекта.

Ной Джансиракуса, профессор математики в Университете Бентли:

Подборка новых членов совета нехороша. Особенно для компании, которая лидирует в отрасли. Главная цель OpenAI — разработка ИИ, который “принесет пользу всему человечеству”. Поскольку половина человечества — женщины, недавние события не вызывают доверия. Хэлен Тонер отражает безопасность ИИ. 

Кристофер Мэннинг, директор лаборатории искусственного интеллекта в Стэнфорде:

Недавно сформированное правление OpenAI, по-видимому, все еще неполное... Состав совета директоров, в который входят только белые мужчины, — неоднозначное начало для такой влиятельной компании.

OpenAI — новое начало

Такие события однозначно полезны для упрощения образов глобальных проектов, меняющих наш мир. После подобных скандалов люди больше обращают внимание на человечность и несовершенство их основателей. Победили ли в этом конфликте «хорошие парни»? Рассудит история. Мы же теперь будем внимательнее следить за этичностью действий со стороны OpenAI. В их руках будущее всего человечества.

Главные новости из мира нейросетей — Telegram-канал Нейросети от Partnerkin.

Wildberries расширяет горизонты: взгляд на новое сотрудничество с Китаем со стороны продавцов
Как вам статья?
ПОЛУЧИТЬ АКТУАЛЬНУЮ ПОДБОРКУ КЕЙСОВ

Прямо сейчас бесплатно отправим подборку обучающих кейсов с прибылью от 14 730 до 536 900 ₽.


Топовая партнерка 1xSlots