Namiesto pozastavenia vývoja či ukončenia trénovania modelov umelej inteligencie na nejaký čas je lepšie hľadať spôsoby, ako z nej profitovať. Priblížil to odborník na etiku umelej inteligencie Juraj Podroužek z Kempelenovho inštitútu inteligentných technológií.
Pre a proti umelej inteligencie
Podroužek rozumie niektorým obavám vyjadreným vo výzve na dočasné pozastavenie vývoja výkonných systémov umelej inteligencie, ako sú napríklad masové šírenie dezinformácií či rôzne bezpečnostné riziká. „Na druhej strane dáva uvedená výzva viac do popredia skôr riziká dlhodobého až špekulatívneho charakteru,“ doplnil.
Potrební budú podľa neho nielen technologickí experti, ale aj odborníci s humanitným a spoločenskovedným vzdelaním. Podotkol, že systémy sú silno previazané so širšími spoločenskými vzťahmi a nemôžu sa vnímať len z technickej stránky.
Priblížil, že medzi problémy súvisiace s vývojom, nasadzovaním a používaním systémov úzkej umelej inteligencie patria napríklad otázky férovosti a nediskriminácie. Vysvetlil, že ide o to, aby systémy neopakovali ľudské predsudky a zlozvyky, ktoré preberú z dát, na ktorých sú natrénované, a následne neuprednostňovali neférovým spôsobom určité skupiny obyvateľstva.
„Veľmi dôležitá je aj miera ich transparentnosti,“ podotkol s tým, že treba pochopiť nielen to, akým spôsobom sa dostanú systémy k svojim výsledkom, ale vedieť si aj uvedomiť, v ktorých situáciách sme vystavení strojovo vytvorenému obsahu či kedy s nami nekomunikuje už živý človek. „Na to sa viaže aj otázka ľudského dohľadu, aby sme vedeli povedať, ktoré ľudské činnosti chceme zveriť stroju a ktoré rozhodnutia si chceme ponechať my ľudia,“ doplnil expert.
Bezpečnosť a etické otázky
Dôležité je aj súkromie a bezpečnosť používateľov takýchto systémov. „Otázka kyberbezpečnosti je jednou z dôležitých tém, ktorá patrí nielen v umelej inteligencii, ale aj celkovo vo vývoji a nasadzovaní informačných technológií medzi kľúčové,“ uviedol. Problematické môže byť podľa neho však správanie sa samotných používateľov.
Ľudia sú schopní zveriť aj veľmi citlivé osobné informácie chatbotovi. „Dokonca aj také, ktoré by za bežných okolností neboli ochotní povedať ani svojim blízkym,“ podotkol Podroužek. Upozornil na prípad, keď belgický občan zrejme aj na základe dlhodobej a veľmi dôvernej komunikácie s chatbotom spáchal samovraždu.
„Rovnako dôležitá je aj otázka prílišného spoliehania sa na rozhodnutia stroja a zbavovanie sa zodpovednosti za dôležité rozhodnutia,“ doplnil. Dôležité je podľa neho, aby sa systémy umelej inteligencie vnímali predovšetkým ako naši pomocníci. Rovnako je potrebné si uvedomiť, že nie stroje, ale ľudia budú zodpovední za prípadné chyby a zlé rozhodnutia stroja.
Výzvy na obmedzenie umelej inteligencie
Miliardár Elon Musk a skupina expertov koncom marca v otvorenom liste vyzvali na pozastavenie trénovania niektorých veľkých jazykových modelov umelej inteligencie, aby mohla byť preverená ich bezpečnosť. Predmetnú výzvu podpísalo viac ako tisíc odborníkov na umelú inteligenciu. Ich žiadosť podnietilo vydanie novej verzie jazykového modelu GPT-4 z dielne americkej organizácie OpenAI.