Hŕstke veľkých technologických spoločností, ktoré vedú preteky v komercializácii umelej inteligencie, nemožno dôverovať, že zaručia bezpečnosť systémov, ktorým ešte nerozumieme a ktoré sú náchylné na „chaotické alebo nepredvídateľné správanie“.

V utorok to na prvom zasadnutí Bezpečnostnej rady Organizácie Spojených národov o hrozbách umelej inteligencie pre svetový mier uviedol jeden z vedúcich predstaviteľov spoločnosti zaoberajúcej sa umelou inteligenciou.

Práve preto sa svet musí spojiť, aby zabránil zneužitiu tejto technológie, upozornil spoluzakladateľ spoločnosti Anthropic, ktorá sa zaoberá umelou inteligenciou, Jack Clark.

Trénovanie četbota

Clark pritom tvrdí, že jeho spoločnosť sa snaží trénovať svojho četbota s umelou inteligenciou tak, aby kládol dôraz na bezpečnosť a opatrnosť.

Najužitočnejšie veci, ktoré možno teraz urobiť, sú podľa neho „pracovať na vývoji spôsobov testovania schopností, nesprávneho používania a potenciálnych bezpečnostných chýb týchto systémov“.

Clark odišiel zo spoločnosti OpenAI, tvorcu najznámejšieho četbot ChatGPT, a založil vlastnú firmu Anthropic, ktorej konkurenčný produkt sa volá Claude.

Dvojsečná zbraň

Varoval tiež pred „potenciálnymi hrozbami pre medzinárodný mier, bezpečnosť a globálnu stabilitu“ vyplývajúcimi z dvoch základných vlastností systémov umelej inteligencie - z ich potenciálu na zneužitie a nepredvídateľnosti, „ako aj z ich prirodzenej krehkosti, keďže ich vyvíja taký úzky okruh aktérov“.

Podotkol pritom, že i keď umelá inteligencia prinesie obrovské výhody, jej chápanie v oblasti biológie môže, napríklad, využiť aj systém, ktorý dokáže vyrábať biologické zbrane.

Zároveň zdôraznil, že na celom svete sú to technologické spoločnosti, ktoré majú sofistikované počítače, veľké fondy údajov a kapitál na budovanie systémov AI, a preto sa zdá, že budú aj naďalej určovať ich vývoj.

Bez noriem a postupov

Vo svojom videobrífingu pre Bezpečnostnú radu však tiež vyjadril nádej, že globálne opatrenia budú úspešné.

V tomto smere ho podľa jeho slov povzbudzuje, že mnohé krajiny vrátane Európskej únie, Číny a Spojených štátov vo svojich návrhoch týkajúcich sa umelej inteligencie zdôrazňujú význam testovania a hodnotenia bezpečnosti.

Momentálne však neexistujú žiadne normy či osvedčené postupy „ako testovať tieto hraničné systémy z hľadiska takých vecí, ako sú diskriminácia, zneužitie alebo bezpečnosť“, čo vládam komplikuje vytváranie politík a umožňuje súkromnému sektoru využívať informačný náskok.

Potenciálne riziko zneužitia

Generálny tajomník OSN António Guterres sa vyjadril, že OSN je „ideálnym miestom“ na prijatie globálnych noriem s cieľom maximalizovať prínosy umelej inteligencie a zmierniť jej riziká.

Radu pritom upozornil, že nástup generatívnej umelej inteligencie by mohol mať veľmi vážne dôsledky pre medzinárodný mier a bezpečnosť, pričom poukázal na jej potenciálne využitie teroristami, zločincami a vládami, ktoré by spôsobilo „strašný rozsah smrti a deštrukcie, rozsiahlu traumu a hlboké psychické škody v nepredstaviteľnom rozsahu“.

Ako prvý krok Guterres oznámil, že vymenúva poradný výbor na vysokej úrovni pre umelú inteligenciu, ktorý do konca roka predloží správu o možnostiach globálneho riadenia umelej inteligencie.

Víta tiež podľa vlastných slov výzvy niektorých krajín na vytvorenie nového orgánu OSN na podporu globálneho úsilia o riadenie umelej inteligencie, „inšpirovaného takými modelmi, ako sú Medzinárodná agentúra pre atómovú energiu, Medzinárodná organizácia pre civilné letectvo alebo Medzivládny panel o zmene klímy“.

Ďalšie dôležité správy

Business,People,And,Humanoid,Ai,Robot,Sitting,And,Waiting,For
Neprehliadnite

Generatívna AI prinesie bilióny do svetovej ekonomiky. Najviac stratia znalostní pracovníci