19 grudnia 2023 0 99

Skandal w OpenAI: Założyciele Powracają, Napięcie Utrzymuje się

W zeszłym tygodniu oczy całego świata zwrócone były na jeden z największych skandali w branży technologicznej: zarząd OpenAI zwolnił dwóch założycieli firmy, Sama Altmana i Grega Brockmana. Inwestorzy wywierali presję na zarząd, domagając się cofnięcia decyzji. Altman przedstawił swoje warunki, na które zarząd się zgodził, ale nie dotrzymał terminu. Następnie Sam odrzucił ofertę powrotu i rozpoczął negocjacje w sprawie dołączenia do Microsoftu.

Bądź na bieżąco z najnowszymi wiadomościami na temat marketingu afiliacyjnego, artykułami, przewodnikami i studiami przypadków. Subskrybuj nasz kanał Telegram już dziś!

Cały zespół OpenAI wykazał się solidarnością — 700 z 770 pracowników podpisało list otwarty, w którym domagali się ustąpienia całego zarządu, albo pójdą za Altmanem pod skrzydła Microsoftu, który obiecał stanowiska pracy dla wszystkich zainteresowanych. W efekcie, po 5 dniach od dramatycznego zwolnienia, Altman i Brockman powrócili do OpenAI, a większość członków zarządu straciła swoje stanowiska. Skandal ujawnił kilka zakulisowych problemów lidera branży sztucznej inteligencji i zrodził liczne spekulacje i plotki. Partnerkin analizuje, którym z nich można zaufać.

Niebezpieczeństwo tworzenia sztucznej inteligencji

Według informacji agencji Reuters, przed zwolnieniem Sama Altmana, kilku kluczowych badaczy w firmie napisało list do zarządu, ostrzegając przed rozwojem sztucznej inteligencji, która może stanowić zagrożenie dla ludzkości.

Źródła podały ten list jako jeden z czynników prowadzących do zwolnienia Altmana.

Tajny projekt OpenAI, o którym mowa w liście, nosił nazwę kodową Q*—"Ku-Star". Nowemu modelowi udało się rozwiązać kilka problemów matematycznych. Anonimowe źródło Reutersa poinformowało, że pomimo tego, że Q* radzi sobie z matematyką tylko na poziomie uczniów szkoły podstawowej, jego pomyślne wyniki testów zainspirowały naukowców z wielkim optymizmem. Niektórzy w OpenAI uważają, że Q* może być przełomem w badaniach nad ogólną sztuczną inteligencją — AGI.

Sam nie poinformował o tym zarządu. Najwyraźniej konsekwencje tego przełomu były tak przerażające, że zarząd próbował usunąć Altmana i połączyć się z konkurentem "Anthropic", znanym z ostrożności w rozwoju sztucznej inteligencji. Pośrednio potwierdza to wpis na blogu OpenAI, ogłaszający zwolnienie Altmana, ponieważ "Altman nie zawsze był szczery w komunikacji z zarządem".

Oprócz zaprezentowania nowych narzędzi podczas DevDay na początku listopada, na szczycie współpracy gospodarczej Azji i Pacyfiku w San Francisco, Altman stwierdził, że znaczące osiągnięcia są bliżej niż wszyscy myślą:

"Coś się jakościowo zmieniło. Teraz mogę rozmawiać z tą rzeczą. To jak komputer ze "Star Treka", który zawsze mi obiecywali... W całej historii OpenAI tylko cztery razy musiałem być w specjalnym pokoju, gdzie omawialiśmy nowe odkrycia. A ostatnie spotkania miały miejsce w ciągu ostatnich kilku tygodni".

Następnego dnia zarząd zwolnił Altmana.

Postać Założyciela

Sam Altman — lider firmy, która stworzyła ChatGPT — przez wielu postrzegany jest jako mesjasz, Steve Jobs świata narzędzi sztucznej inteligencji. Ale ci, którzy są blisko niego, opisują założyciela OpenAI w sprzeczny sposób.

Możesz wyrzucić go na wyspę kanibali, wrócić za 5 lat, a on będzie tam królem. Sam Altman niekoniecznie musi przynosić zyski, aby przekonać inwestorów, że odniesie sukces z nimi lub bez nich.

Tak o Samie powiedział w 2008 roku jego mentor Paul Graham — założyciel Y Combinator. W 2014 roku Graham mianował 28-letniego Altmana dyrektorem generalnym swojego inkubatora, zaskakując wielu liderów branży. Pięć lat później przyleciał z Wielkiej Brytanii do San Francisco, aby usunąć swojego protegowanego. Graham obawiał się, że Altman przedkłada własne interesy nad interesy organizacji.

Były pracownik OpenAI, badacz uczenia maszynowego Jeffrey Irving, który obecnie pracuje w Google DeepMind, napisał, że nie jest skłonny wspierać Altmana po dwóch latach pracy pod jego kierownictwem:

1. Zawsze był dla mnie miły.

2. Często mnie okłamywał w różnych sytuacjach.

3. Oszukiwał, manipulował i źle traktował innych pracowników, w tym moich bliskich przyjaciół.

Na początku października Eliezer Yudkowsky, specjalista od sztucznej inteligencji i lider ruchu "Pause AI", opublikował artykuł na LessWrong. Zebrał w nim dziesiątki postów od Annie Altman, siostry Sama, twierdząc, że przez całe życie była poddawana różnym formom przemocy ze strony brata.

Yudkowsky'emu nie udało się skontaktować z Annie, ale istnieje kilka pośrednich potwierdzeń, że posty zostały opublikowane przez siostrę Sama Altmana. W artykule zebrano wszystkie publiczne wypowiedzi Annie na temat Sama i jej zdrowia psychicznego w ostatnich latach.

Nie można wykluczyć, że jest to część kampanii "Pause AI" mającej na celu zdyskredytowanie osób publicznych związanych z badaniami nad sztuczną inteligencją. Informacje te stały się jednak ponownie przedmiotem dyskusji w kontekście głośnego zwolnienia Altman i jej powrotu do OpenAI. Do dyskusji włączył się nawet Elon Musk. Miliarder i jeden z pierwszych inwestorów w OpenAI skomentował post Ashley Saint-Clair, w którym ta wyraziła swoje oburzenie faktem, że media nie poinformowały o oskarżeniach ze strony Annie Altman:

"Russell Brand jest postrzegany jako zagrożenie dla establishmentowych mediów, a Sam nie".

  • Russell Brand — komik, który we wrześniu został oskarżony o przemoc seksualną.

Konflikt interesów

Wszystko, co musisz wiedzieć o założeniu agencji OnlyFans w 2023 roku

William Ligat, seryjny przedsiębiorca w sektorze technologicznym i dyrektor generalny "Good Pillows", napisał następujący post na swoim profilu X:

Ponieważ niektórzy nadal nie rozumieją, co się dzieje, pozwólcie, że przedstawię wam "wiodącego" członka zarządu — Adama D'Angelo. Adam jest właścicielem "Poe", firmy, która stała się nieistotna z powodu GPT. Adam był wściekły, że zarząd nie poinformował go z wyprzedzeniem. Manipulował członkami zarządu, twierdząc, że istnieje egzystencjalne zagrożenie dla sztucznej inteligencji, a Sam ukrywał ważne informacje. Celem Adama było wrogie przejęcie OpenAI. Adam był inicjatorem tego wszystkiego.

Rzeczywiście, D'Angelo jest właścicielem "Poe", który zapewnia dostęp do różnych narzędzi sztucznej inteligencji za pośrednictwem wygodnego chatbota. W cytowanym poście D'Angelo przedstawia monetyzację unikalnych botów opartych na ChatGPT. Dwa tygodnie po tym ogłoszeniu OpenAI uruchomiło konfigurowalne boty GPT i własny sklep z aplikacjami, w pełni powielając pomysł D'Angelo.

D'Angelo odpowiedział na te oskarżenia, po cichu blokując Ligata w sieci społecznościowej X.

Warto zauważyć, że Adam D'Angelo jest jedynym członkiem zarządu OpenAI, który zachował swoje stanowisko.

W momencie zwolnienia Sama i Grega w zarządzie zasiadali m.in.:

  • Ilya Sutskever, główny naukowiec;
  • Adam D'Angelo, założyciel Poe i dyrektor generalny Quora;
  • Tasha McCollie, przedsiębiorca technologiczny;
  • Helen Toner, dyrektor Centrum Bezpieczeństwa i Technologii Georgetown.

Po triumfalnym powrocie założycieli, skład zarządu został zaktualizowany:

  • Brad Taylor, były współprzewodniczący Salesforce;
  • Larry Summers, ekonomista, były dyrektor Narodowej Rady Gospodarczej USA;
  • Adam D'Angelo, założyciel Poe, dyrektor generalny Quora.

Pozornie próbując potwierdzić reputację D'Angelo, w Święto Dziękczynienia Sam Altman napisał, że spędził święta z Adamem.

Sam Altman: "Spędziłem kilka wspaniałych godzin z Adamem D'Angelo. Szczęśliwego Święta Dziękczynienia".

Użytkownicy X zareagowali na to odpowiedziami i memami:

Użytkownik AutismCapital: "Sesja zdjęciowa Adama D'Angelo z okazji Święta Dziękczynienia".

Użytkownik FreddieRaynolds: "Czy on jeszcze żyje?".

Oskarżenia o Mizoginię

Skupmy się jeszcze raz na zmienionym zarządzie. Przed fatalnym skandalem jedna trzecia zarządu składała się z wpływowych kobiet z branży technologicznej.

Jedna z nich, Tasha McCollie, jest znanym inżynierem robotyki i dyrektorem generalnym "GeoSim Systems" — firmy opracowującej oprogramowanie korporacyjne dla złożonych systemów.

Inna, Helen Toner, jest wybitnym badaczem sztucznej inteligencji nadzorującym badania CSET w zakresie polityki sztucznej inteligencji. Helen badała sytuację sztucznej inteligencji w Chinach, co czyni ją autorytatywnym ekspertem w dziedzinie konsekwencji sztucznej inteligencji dla bezpieczeństwa narodowego. W niedawnym artykule dla CSET Helen podkreśliła znaczenie znalezienia nowych metod testowania sztucznej inteligencji, opowiedziała się za dzieleniem się informacjami na temat nieszczęśliwych wypadków związanych ze sztuczną inteligencją i wezwała do współpracy międzynarodowej w celu zminimalizowania ryzyka.

Po powołaniu Helen do zarządu OpenAI, opublikowała ona na swoim blogu, stwierdzając, że nominacja "potwierdza nasze zaangażowanie w bezpieczne i odpowiedzialne wdrażanie technologii, aby zapewnić, że sztuczna inteligencja przyniesie korzyści całej ludzkości".

Jeśli chodzi o jej nominację, obaj założyciele, Sam Altman i Greg Brockman, wyrazili swoje poglądy.

"Bardzo doceniam refleksje Helen na temat długoterminowych zagrożeń i konsekwencji sztucznej inteligencji. Z niecierpliwością czekam na wpływ, jaki będzie miała na nasz rozwój" — powiedział Brockman.

"Helen wnosi zrozumienie globalnego rozwoju sztucznej inteligencji z naciskiem na bezpieczeństwo.... Cieszymy się, że dołączyła do naszego zarządu" — stwierdził Altman.

"Mocno wierzę w cel organizacji — tworzenie sztucznej inteligencji z korzyścią dla wszystkich i to dla mnie wielki zaszczyt, że mogę przyczynić się do realizacji tej misji" — skomentowała swoje powołanie do zarządu OpenAI Helen Toner.

Istnieje duże prawdopodobieństwo, że badania Toner nad bezpieczeństwem sztucznej inteligencji mogły być katalizatorem zwolnień w OpenAI.

W swojej pracy Helen krytykuje OpenAI za wydanie ChatGPT pod koniec ubiegłego roku. Według niej spowodowało to konieczność przyspieszenia prac badawczych przez inne firmy, skłaniając konkurentów do "ominięcia wewnętrznych procesów bezpieczeństwa i przeglądu etycznego".

Według "New York Times", Altman skarżył się w e-mailu, że badania Helen są równoznaczne z krytyką ze strony członka zarządu i dodał, że szkodzą OpenAI. Toner broniła swojej pracy jako bezstronnej analizy kwestii związanych z rozwojem sztucznej inteligencji.

Sam Altman reprezentuje komercyjne aspiracje leżące u podstaw technologii sztucznej inteligencji. Dlatego inwestorzy stanęli po jego stronie.

Toner odzwierciedla ruch efektywnego altruizmu, którego celem jest maksymalizacja korzyści i ograniczenie szkód związanych ze sztuczną inteligencją.

Wygląda na to, że teatralny skandal, którego byliśmy świadkami, był konfrontacją dwóch ideałów i jak zawsze zwyciężyły pieniądze.

Warto zauważyć, że w nowym zarządzie nie ma ani jednej kobiety. Toner, pomimo swojej głębokiej wiedzy na temat bezpieczeństwa AI, została pominięta.

Wielu badaczy i naukowców zajmujących się sztuczną inteligencją wyraziło swoje opinie na temat nowego składu zarządu.

Noah Jansirakusa, profesor matematyki na Uniwersytecie Bentley:

"Wybór nowych członków zarządu nie jest dobry, zwłaszcza dla firmy, która jest liderem w branży. Głównym celem OpenAI jest rozwój sztucznej inteligencji, która "przyniesie korzyści całej ludzkości". Ponieważ połowa ludzkości to kobiety, ostatnie wydarzenia nie budzą zaufania. Helen Toner odzwierciedla bezpieczeństwo sztucznej inteligencji".

Christopher Manning, dyrektor Laboratorium Sztucznej Inteligencji w Stanford:

"Nowo utworzony zarząd OpenAI wciąż wydaje się niekompletny... Zarząd składający się wyłącznie z białych mężczyzn to dwuznaczny początek dla tak wpływowej firmy".

OpenAI — Nowy Początek

Wydarzenia takie jak te są niewątpliwie korzystne dla uproszczenia wizerunku globalnych projektów, które zmieniają nasz świat. Po takich skandalach ludzie zwracają większą uwagę na człowieczeństwo i niedoskonałości ich założycieli. Czy "ci dobrzy" wygrali w tym konflikcie? Historia to oceni. Teraz będziemy zwracać większą uwagę na etykę działań OpenAI. Przyszłość ludzkości jest w ich rękach.

Co sądzisz o artykule