Skupina ekonomicky vyspelých krajín G7 sa dohodla na súbore odporúčaní pre firmy vyvíjajúce najsofistikovanejšie formy umelej inteligencie, ktoré majú pomôcť nájsť rovnováhu medzi prínosmi týchto technológií a ich úskaliami.
Publikovaný nezáväzný kódex sa skladá z 11 bodov, ktoré vývojárov vyzývajú k opatreniam na ochranu súkromia či demokracie a k väčšej transparentnosti.
Oznámené požiadavky predstavujú ďalší krok v stále len začínajúcich snahách o reguláciu silných softvérových nástrojov označovaných ako AI.
Ich rozvoj najmä v poslednom roku vyvoláva medzi politikmi a expertmi obavy zahŕňajúce všetko od diskusií o ochrane autorských práv cez potenciálny rozmach podvodných videí či audiozáznamov až po úvahy o strate kontroly nad algoritmami.
Cieľom novovydaného kódexu je „pomôcť chopiť sa prínosov a vysporiadať sa s rizikami a výzvami“ spojenými s AI, uvádzajú vlády USA, Kanady, Británie, Francúzska, Nemecka, Talianska a Japonska.
„Organizácie by nemali vyvíjať alebo vypúšťať pokročilé systémy AI takými spôsobmi, ktoré podkopávajú demokratické hodnoty, sú obzvlášť škodlivé pre jednotlivcov či komunity, uľahčujú terorizmus... alebo predstavujú významné riziko pre bezpečnosť a ľudské práva,“ uvádza vyhlásenie nadväzujúce na diskusie na májovom samite G7 v Hirošime.
Nasledujúci zoznam 11 zásad obsahuje pomerne nejasné formulácie a vyzýva napríklad na „primerané opatrenia naprieč vývojom pokročilých systémov AI“ alebo na „identifikáciu a nápravu slabých miest“. Ďalšie body volajú po zdieľaní informácií s vládami, akademikmi i širokou verejnosťou alebo po rokovaní „medzinárodných technických štandardov“.
Posledný bod sa týka potreby kontrolovať „kvalitu údajov“ používaných pri výcviku umelej inteligencie a potreby rešpektovať ochranu súkromia a autorských práv.