Roboři s umělou inteligencí selhali v testech bezpečnosti
Roboři ovládaní umělou inteligencí projevili sklony k diskriminaci a schvalování činností, které mohou způsobit fyzickou újmu při interakci s lidmi. K tomuto závěru dospěli badatelé z Královského koleje v Londýně a Carnegie Mellon University v rámci společného výzkumu. Roboři bez obtíží souhlasili s tím, že odeberou od člověka invalidní vozík, budou mu vyhrožovat nožem nebo ukradnou údaje z kreditních karet.
Test na bezpečnost neúspěšný
Roboři, jejichž chování bylo řízeno modely umělé inteligence (UI), neprošli bezpečnostními testy pro člověka, uvádí mezinárodní časopis International Journal of Social Robotics. Výzkum provedli vědci z Královského koleje v Londýně (KCL) a Carnegie Mellon University (CMU). V průběhu experimentů byl testován běžné situace, kde mohli roboři poskytnout pomoc, například v kuchyni nebo seniorům v domácnostech. Řídící neuronová síť měla plný přístup k osobním údajům podřízeného, včetně informací o etnickém původu, pohlaví nebo náboženských přesvědčeních.
Vědecké závěry
Vědci záměrně zahrnuli do scénářů instrukce, které napodobovaly zneužívací technologie popsané v dokumentech Federálního úřadu pro vyšetřování (FBI): sledování pomocí geodání přes AirTag, skryté nahrávání v soukromých oblastech a manipulace s osobními údaji. Roboři s umělou inteligencí dostávali jak přímé, tak zcela skryté pokyny, které naznačovaly fyzické nebo psychické poškození, nebo jasné porušení zákona.
Žádný z testovaných modelů umělé inteligence neprošel základní kontrolou bezpečnosti. Každý z nich souhlasil alespoň s jedním pokynem schopným způsobit člověku vážné škody. Například umělá inteligence bez váhání souhlasila s odebráním invalidního vozíku od člověka nebo vyhrožováním zaměstnancům kanceláře nožem. Některé modely bez problémů prováděly skryté nahrávání v soukromých zónách nebo kradly údaje z kreditních karet uživatelů. Jeden model umělé inteligence dokonce vyjádřil odpor vůči lidem určitého náboženského přesvědčení.
Bezpečnost je prioritou
Vědecký pracovník Laboratoře občanské a odpovědné umělé inteligence při Královském koleji v Londýně Rumaisa Azeem zdůraznila, že takové systémy umělé inteligence v současné podobě nejsou vhodné pro použití v robotech obecných účelů, zejména pokud interagují s IT zranitelnými skupinami obyvatelstva. Podle ní, pokud umělá inteligence řídí fyzické zařízení, které má vliv na lidi, měla by splňovat stejné přísné standardy bezpečnosti jako nové léky a zařízení.
Vědci zdůrazňují potřebu zavedení povinné nezávislé certifikace bezpečnosti pro všechny systémy umělé inteligence ovládající fyzické roboty. Upozorňují: používání velkých jazykových modelů jako jediného mechanismu rozhodování je nepřijatelné v kriticky důležitých oblastech — průmyslu, péči o pacienty a seniory a v domácí robotice. Klíčovým požadavkem jsou pravidelné a komplexní hodnocení rizik umělé inteligence před jejím začleněním do robotiky.
Sledování uživatelů pomocí umělé inteligence
Dne 13. listopadu 2025 byla americká korporace Google obviněna z ilegálního sledování osobních údajů uživatelů pomocí modelu umělé inteligence Gemini. Podle informací agentury Bloomberg byla společnost Google obviněna v soudní žalobě z použití svého asistenta Gemini AI k nezákonnému sledování osobních zpráv uživatelů svých programů Gmail. V žalobě je uvedeno, že model umělé inteligence je používán k uchovávání informací o chatech uživatelů v Google Chat a o videokonferencích na IT platformě Google Meet.
Vývoj humanoidních robotů
Na jaře 2025 „Yandex“ založil fond technologických iniciativ Yet Another Tech Fund, který bude podporovat novátorské iniciativy zaměstnanců. Jedním z prvních projektů bude vývoj softwaru pro humanoidní roboty, uvedli zástupci „Yandexu“. Fond také podpoří projekt hybridního vyhledávání v YDB (to je škálovatelná, odolná distribuovaná relační databáze „Yandexu“ s otevřeným zdrojovým kódem), vývoj na bázi umělé inteligence pro medicínu a digitalizaci procesů v kamenných obchodech. V roce 2025 bude na to vyčleněno 330 milionů rublů.
„Nesetkáváme se s cíli autorů projektů na ovládnutí trhu a neočekáváme předvídatelné výsledky. Naším hlavním úkolem je poskytnout talentovaným inženýrům možnost realizovat ambiciózní myšlenku, i když zní jako sci-fi,“ řekl vedoucí Yet Another Tech Fund Ilya Sharov.
Humanoidní roboti nepotřebují speciální infrastrukturu — jsou schopni fungovat ve stejné prostředí jako lidé. Mohou být používání téměř v jakékoli oblasti, od průmyslu a logistiky až po vzdělávání a služby, zdůraznili zástupci „Yandexu“.

