Proč odborníci na umělou inteligenci varují své blízké před jejím používáním?
Podle zprávy publikované v „Guardianu“ chybí odborníkům v oblasti umělé inteligence důvěra, především v souvislosti s ověřováním informací generovaných modely. Upozorňují své blízké, aby se těmto nástrojům vyhýbali.
Důvodem je jejich znalost mechanismů hodnocení výsledků umělé inteligence a prvotní výstupy, které se uživatelům zobrazují. Většina respondentů uvedených ve zprávě se zabývá hodnocením a revizí výsledků umělé inteligence.
Krista Pauloski, která hovořila s „Guardianem“, uvedla: „Málem jsem schválila odpověď od modelu umělé inteligence, aniž bych věděla, že je rasistická. To mě přimělo hodně přemýšlet o tom, kolikrát jsem takové komentáře a dezinformace sama schválila, aniž bych to tušila.“
Pauloski pracuje jako freelancer na platformě „Amazon Mechanical Turk“, která umožňuje firmám v oblasti umělé inteligence najímat jednotlivce k revizi a ověřování informací a dat generovaných modely.
Společnost „Amazon“ potvrzuje, že tato platforma je otevřeným trhem pracovních míst a není přímo zodpovědná za zaměstnání či testy prováděné na této platformě.
Podobná situace panuje i ve společnosti „Google“. Zpráva naznačuje, že hodnocení odpovědí v oblasti zdraví, zejména pomocí nástrojů umělé inteligence od „Google“, probíhá bez dostatečné kritiky či pečlivé revize, jak uvedl jeden ze zaměstnanců „Google“ odpovědných za kontrolu odpovědí umělé inteligence.
Brooke Hansen, která také pracuje na platformě, zdůraznila, že „Amazon Mechanical Turk“ nedůvěřuje žádnému modelu umělé inteligence, na kterém pracuje. Firmy vyvíjející tyto modely se totiž nezabývají jejich školením a zároveň vyžadují výsledky v nerealistických termínech.
Jeden ze zaměstnanců „Google“ poznamenal, že umělá inteligence nese předsudky a rasismus, které jsou do ní programovány. Uvedl, že model odmítl poskytnout jakékoliv odpovědi na otázky o historii Palestinců, zatímco rozsáhle odpověděl na otázku o historii Izraele, jak se uvádí ve zprávě „Guardianu“.
Dotyčný odmítá používat technologie umělé inteligence a chatboty a varoval své přátele a rodinné příslušníky, aby se jim vyhnuli nebo si nekupovali nové telefony.
Tato stížnost a nedůvěra odborníků v oblasti umělé inteligence v různé modely odráží skutečnou krizi v kvalitě dat, na kterých jsou modely trénovány. Zatímco firmy usilují o získání co nejvíce dat, opomíjejí kvalitu těchto dat.

