Falošné a zavádzajúce informácie poháňané umelou inteligenciou, ktoré hrozia naštrbením demokracie a polarizáciou spoločnosti, sú podľa Svetového ekonomického fóra najväčším bezprostredným rizikom pre globálnu ekonomiku.
Organizácia vo svojej najnovšej správe o globálnych rizikách tiež uvádza, že z dlhodobého hľadiska vytvárajú najväčšie hrozby environmentálne riziká, ako kritická zmena systémov Zeme, strata biodiverzity, kolaps ekosystémov a nedostatok prírodných zdrojov.
Rýchly pokrok = nové problémy
Správa, ktorú Svetové ekonomické fórum zostavilo na základe prieskumu medzi takmer 1 500 odborníkmi, tvorcami politík a priemyselnými lídrami, označuje dezinformácie za najvážnejšie riziko počas nasledujúcich dvoch rokov.
Zdôrazňuje pritom, ako rýchly pokrok v technológii tiež vytvára nové problémy alebo zhoršuje existujúce.
Autori sa obávajú, že rozmach generatívnych četbotov AI, ako je ChatGPT, znamená, že vytváranie sofistikovaného syntetického obsahu, ktorý možno použiť na manipuláciu so skupinami ľudí, už nebude obmedzené na tých, ktorí majú špecializované zručnosti.
Hrozba nekalých praktík v čase volieb
Dezinformácie poháňané umelou inteligenciou sa stávajú rizikom práve v čase, keď sa mnohé krajiny vrátane veľkých ekonomík, ako sú Spojené štáty, Veľká Británia, Indonézia, India, Mexiko a Pakistan, chystajú na voľby počas tohto a budúceho roka, uvádza sa v správe.
„Umelú inteligenciu môžete využiť na deepfake a skutočný vplyv na veľké skupiny, čo skutočne vedie k dezinformáciám,“ vyjadrila sa Carolina Klint, ktorá má na starosti riadenie rizík v spoločnosti Marsh.
Spoločnosť by sa podľa nej mohla ešte viac polarizovať, pretože pre ľudí je ťažšie overovať si fakty.
Falošné informácie by sa tiež mohli použiť na podnietenie otázok o legitimite zvolených vlád, „čo znamená, že demokratické procesy by mohli byť narušené a tiež by to poháňalo spoločenskú polarizáciu ešte viac,“ skonštatovala.
Ďalšie riziká
Nárast AI podľa nej tiež prináša ďalšie riziká. Môže posilniť „zločinných aktérov“ tým, že uľahčí vykonávanie kybernetických útokov, napríklad automatizáciou pokusov o phishing alebo vytvorením pokročilého malvéru.
Môže dokonca „otráviť“ údaje získavané z internetu na trénovanie iných systémov AI, čo je „neuveriteľne ťažké zvrátiť“ a mohlo by to viesť k ďalšiemu začleneniu predsudkov do modelov AI, povedala Klint.