V liste s dátumom 22. marca, ktorý do piatka (31. marca) podpísalo viac ako 1 800 ľudí, sa požaduje šesťmesačná prestávka vo vývoji systémov „výkonnejších“, ako je nový GPT-4 spoločnosti OpenAI.
Umelá inteligencia podporovaná Microsoftom dokáže viesť rozhovor podobný ľudskému, skladať piesne a sumarizovať dlhé dokumenty. Od minuloročného vydania predchodcu GPT-4 sa konkurenčné spoločnosti poponáhľali s uvedením podobných produktov na trh.
Skupiny občianskej spoločnosti v USA a EÚ odvtedy naliehajú na zákonodarcov, aby výskum OpenAI obmedzili.
Kritici obvinili organizáciu Future of Life Institute (FLI), ktorá je za tento list zodpovedná, a ktorú financuje najmä Muskova nadácia, že uprednostňuje vymyslené apokalyptické scenáre pred bezprostrednejšími obavami z umelej inteligencie, ako sú rasistické alebo sexistické predsudky naprogramované v strojoch.
V otvorenom liste sa uvádza, že systémy umelej inteligencie s „ľudskou inteligenciou“ predstavujú pre ľudstvo veľké riziko. Taktiež sa tam cituje 12 výskumov odborníkov vrátane akademikov z univerzít, ako aj súčasných a bývalých zamestnancov spoločností OpenAI, Google a jej dcérskej spoločnosti DeepMind.
Medzi citovanými výskumami bol aj článok „O nebezpečenstve stochastických papagájov“, ktorého spoluautorkou je Margaret Mitchellová. Tá v minulosti dohliadala na etický výskum umelej inteligencie v spoločnosti Google.
Mitchellová, ktorá je v súčasnosti hlavnou etickou vedkyňou vo firme Hugging Face, list kritizovala a agentúre Reuters povedala, že nie je jasné, čo sa považuje za „výkonnejšie ako GPT4“.
„Tým, že list považuje množstvo sporných myšlienok za samozrejmosť, presadzuje súbor priorít a vykresľuje umelú inteligenciu spôsobom, ktorý len hrá zástancom FLI do kariet,“ spresnila.
Jej spoluautori Timnit Gebru a Emily M. Benderová kritizovali list na Twitteri, pričom označili niektoré tvrdenia za „nehorázne“.
Prezident FLI Max Tegmark pre agentúru Reuters uviedol, že kampaň nebola pokusom o zabránenie firemnej výhode OpenAI. „Je to celkom zábavné. Počul som, ako ľudia hovoria, že sa Elon Musk snaží spomaliť konkurenciu." Elon Musk sa na príprave listu podľa neho nepodieľal.
Odborná asistentka na Connecticutskej univerzite Shiri Dori-Hacohenová takisto vyjadrila nesúhlas s tým, že sa v liste spomína jej výskum. Minulý rok bola spoluautorkou výskumnej práce, v ktorej tvrdila, že rozsiahle používanie umelej inteligencie už vtedy predstavovalo vážne riziká.
Zároveň uviedla, že súčasné používanie systémov umelej inteligencie by mohlo ovplyvniť rozhodovanie v súvislosti so zmenou klímy, jadrovou vojnou a inými existenčnými hrozbami.
„Umelá inteligencia nemusí dosiahnuť inteligenciu na úrovni človeka, aby sa tieto riziká zhoršili. Existujú aj neexistenčné riziká, ktoré sú naozaj veľmi dôležité, ale nedostáva sa im až taká veľká pozornosť.“
Tegmark z FLI ku kritike uviedol, že krátkodobé aj dlhodobé riziká AI by sa mali brať vážne. „Ak niekoho citujeme, znamená to len, že tvrdíme, že túto vetu schvaľuje. Neznamená to, že schvaľujú tento list alebo že schvaľujeme všetko, čo si myslia,“ ozrejmil situáciu.
Riaditeľ kalifornského Centra pre bezpečnosť umelých inteligencií Dan Hendrycks, ktorý bol v liste takisto citovaný, sa postavil za jeho obsah a povedal, že je podľa neho rozumné brať do úvahy udalosti, ktoré sa zdajú nepravdepodobné, ale mohli by mať ničivé následky.
V otvorenom liste zároveň varoval, že generatívne nástroje umelej inteligencie by sa mohli v budúcnosti zneužívať na zaplavenie internetu „propagandou a nepravdivými informáciami“.
Dori-Hacohenová povedala, že je „celkom vtipné“, že tento list Musk podpísal, pričom sa odvolala na údajný nárast dezinformácií na Twitteri po jeho kúpe platformy.
Twitter čoskoro zavedie novú štruktúru poplatkov za prístup k svojim výskumným údajom, čo môže brániť výskumu v tejto oblasti.
„Bude to mať priamy vplyv na prácu môjho laboratória a prácu iných, ktorí skúmajú dezinformácie,“ povedala Dori-Hacohenová. „Pracujeme s jednou rukou zviazanou za chrbtom,“ dodala.