Jaké jsou největší hrozby spojené s AI a jak jim předcházet

Schopnosti umělé inteligence a strojového učení rostou dosud nepoznanou rychlostí. Tyto technologie mohou mít mnoho pozitivních využití (třeba v medicíně), méně pozornosti se ale věnuje variantým, kdy tomu může být opačně.

Proto během února v anglickém Oxfordu dalo hlavy dohromady 26 expertů na umělou inteligenci ze 14 různých institucí od univerzit přes neziskové organizace po firmy pracující v oboru – a připravili stostránkovou studii o největších hrozbách, které s rozvojem AI souvisejí.

„Tento report zkoumá potenciální bezpečnostní hrozby vyplývající ze škodlivého používání technologií umělé inteligence a navrhuje způsoby, jak tyto hrozby lépe předpovídat, předcházet jim a zmírňovat je. Analyzujeme – ale definitivně nevyřešíme – otázku, jaká bude dlouhodobá rovnováha mezi útočníky a obránci. Zaměřujeme se spíše na to, jaké druhy útoků můžeme v blízké době očekávat, pokud nebudou vyvinuty odpovídající obranné prostředky,“ sdělují autoři v úvodu.

AI systémy dnes dokáží produkovat syntetické obrázky, které jsou téměř k nerozeznání od fotek. Přitom ještě pár let zpět vypadaly zcela nerealisticky.

Největší hrozby

O jakých hrozbách tedy ve studii mluví? Rozdělují je do tří hlavních oblastí:

  • Digitální bezpečnost: Využití AI na automatizaci úkolů zahrnujících kyberútoky zvyšuje hrozbu spojenou zejména s útoky náročnými na lidskou práci (jako je třeba tzv. spear phising). Očekávat můžeme také nový druh útoků, které cílí na lidské zranitelnosti (pomocí syntézy řeči při předstírání jiné identity), existující softwarové zranitelnosti (přes automatizované hackování) nebo zranitelnosti AI systémů (přes ovlivňování a zneužívání dat).
  • Fyzická bezpečnost: Využití AI na automatizaci úkolů v oblasti útoků pomocí dronů a dalších fyzických systémů (například přes autonomní zbrojní systémy) může zvyšovat hrozbu těchto útoků. Novými nebezpečími mohou být zneužívání existujících fyzických systémů (např. způsobování nehod autonomních vozidel) anebo využití fyzických systémů, které není možné řídit dálkově (například roje tisíců mikro-dronů).
  • Politická bezpečnost: Využití AI na automatizaci úkolů v monitorovacích systémech (např. analýzou hromadně shromažďovaných dat), přesvědčování (např. tvorbě cílené propagandy) a podvodech (např. manipulaci s videi) může zvýšit hrozby spojené s útoky na ochranu soukromí a sociální manipulací. Můžeme očekávat nové útoky využívající zvýšené kapacity na analýzu lidského chování, nálad a přesvědčení založené na přístupných datech. Tyto obavy jsou nejvýznamnější v kontextu autoritářských států, mohou ale ohrozit schopnost demokracii udržovat pravdivé veřejné debaty.

Ve všech zmiňovaných oblastech můžeme dle reportu očekávat rozšíření možných, již existujících hrozeb. Zároveň s tím se však budou objevovat nové a bude se měnit styl nebo charakter, které jsou pro tyto hrozby typické.

„Nemůžeme přemýšlet o velkých technologických změnách a dalším vývoji bez přemýšlení o zlých věcech a soustředit se jen na ty dobré,“ bylo jedno z hlavních poselstev přednášky Seána Ó hÉigeartaighiho, existencionalisty z University of Cambridge. Přečtěte si rozhovor pro Tyinternety.

Co s tím dělat?

Co se s tím dá tedy dělat? V souvislosti s měnícím se prostředím autoři dospěli ke čtyřem hlavním doporučením:

  • Zákonodárci by měli úzce spolupracovat s technickými výzkumníky a vyšetřovat, předcházet a zmírňovat potenciální nebezpeční využití AI.
  • Výzkumníci a inženýři by v umělé inteligenci měli dvojitou náturu své práce brát vážně, čímž umožní ovlivňovat negativní dopady na výzkumní priority a normy. Zároveň by měli proaktivně oslovovat relevantní subjekty, pokud předvídají možné škodlivé aplikace těchto technologií.
  • Měly by být identifikovány best practices ve výzkumných oblastech s pokročilejšími metodami na adresování obav dvojího využití, jako například počítačové bezpečnosti, a využity v oblasti umělé inteligence.
  • Aktivně podporovat rozšíření rámce zúčastněných osob a expertů z dalších oblastí do diskuzí o těchto hrozbách.

Diskuze k článku