Novinky v krátké a přehledné formě na jednom místě

Několik význačných mediálních organizací, včetně CNN, Reuters a The New York Times, rozhodly omezením přístupu aplikacím založeným na umělé inteligenci, konkrétně nástroji GPTBot, k jejich obsahu. Informovala o tom ITBiz.cz na základě zprávy od ČTK. Celkem  nástroji znemožnilo přístup přibližně 10 % z největších 1000 serverů na světě. GPTBot byl tichým způsobem spuštěn společností OpenAI dne 8. srpna.

Zároveň se ozývají hlasy po regulaci AI, 26 vydavatelských a novinářských organizací požaduje zásady pro využívání umělé inteligence (AI), které by respektovaly duševní vlastnictví, transparentnost a odpovědnost. Informuje o tom. Tyto organizace, včetně Evropské rady vydavatelů (EPC) a Světové asociace vydavatelů zpravodajství (WAN-IFRA) zdůrazňují, že i přes výhody AI představuje tato technologie rizika pro tvůrčí odvětví a důvěru veřejnosti v informace. „Obávám se však, že vzhledem k principům fungování systémů umělé inteligence a šíření obsahu na internetu bude extrémně obtížné najít řešení,” komentoval ředitel České asociace umělé inteligence Lukáš Benzl pro ČTK

Nezaspává ani Evropská unie, která přijala návrh regulace umělé inteligence, nazývaný EU AI Act. Vymezuje oblasti AI s nepřijatelným, vysokým, či nízkým rizikem. Do prvního se řadí například podprahová manipulace a identifikace pomocí biometrických informací, do nízkého rizika patří např. chatboti. Navzdory snaze chránit občany a omezit rizika spojená s AI, však existuje obava, že regulace může být příliš restriktivní, což by mohlo zatěžovat evropské firmy, zejména ty malé a střední. „Nevýhodou je prostě to, že když vývojář v USA nebo Británii dostane skvělý nápad, zavolá investorovi. Když ho dostane v Evropě, zavolá právníkovi,“ vysvětluje ředitel Institutu pro digitální ekonomiku Jan Klesla pro Seznam zprávy.  

Systémy AI založené na strojovém učení jsou náchylné k útokům, které mohou vést k jejich selhání, ukazuje studie z  University of Melbourne. Zranitelné jsou např. modely pro identifikaci obrázků při zadávání vstupních obrázků. Autoři studie navrhují, že kvantové algoritmy by mohly tyto zranitelnosti vyřešit a přišli s tzv. “kvantovým strojovým učením”, které by se mohlo některá data učit rychleji. Funkce používané obecnými kvantovými modely jsou navíc pro protivníka, který používá pouze klasické výpočetní prostředky, neviditelné. 

(ITBiz.cz)