Etika umělé inteligence a pohled pracovníků na technologii

Etika umělé inteligence a pohled pracovníků na technologii

Krista Pawloski si jasně pamatuje okamžik, který definoval její názor na etiku umělé inteligence. Je pracovníkyní Amazon Mechanical Turk, platformy, která umožňuje firmám najmout pracovníky na úkoly jako je zadávání dat nebo párování instrukcí AI s jejich výsledky. Věnuje svůj čas moderování a hodnocení kvality textů, obrázků a videí generovaných AI, kromě provádění některých kontrol faktů.

Před přibližně dvěma lety, když pracovala z domova, přijala úkol označit tweety jako rasistické nebo ne. Když jí byl předložen tweet obsahující výrazy, které zjistila, že jsou rasistické, přemýšlela o tom, kolikrát mohla neúmyslně udělat stejnou chybu. Velikost potenciálních chyb, které mohla udělat ona a tisíce dalších pracovníků jako ona, ji přivedla do spirály úzkosti. Kolik dalších mohlo nechat projít urážlivý obsah, aniž by si toho byly vědomy? A kolik z nich si vybralo, co by mělo být zahrnuto do tréninku AI?

Po letech pozorování fungování modelů AI se Pawloski rozhodla, že osobně již nebude používat generativní AI produkty a radí své rodině, aby se od nich drželi dál. „U nás doma je to jednoznačné ‚ne‘,“ říká, když hovoří o tom, že nepovoluje, aby její dospívající dcera používala nástroje jako ChatGPT.

V ostatních lidech vyzývá, aby se ptali AI na nějaké téma, ve kterém jsou experti, aby mohli odhalit chyby a pochopit, jak vratká tato technologie je. Když vidí nabídku nových úloh na platformě Mechanical Turk, často se ptá, zda způsob, jakým pracuje, může být použit k ublížení lidem. Často, jak říká, je odpověď ano.

Amazon ve svém prohlášení uvádí, že pracovníci si mohou vybrat, které úkoly chtějí dokončit, a zkontrolovat detaily každého z nich před přijetím. Podle firmy uchazeči stanovují detaily každého úkolu, jako je čas přidělený, plat a úrovně pokynů.

Pracovníci vyzývají k opatrnosti

Pawloski není sama. Skupina hodnotitelů AI, kteří ověřují přesnost a podstatu odpovědí těchto systémů, varuje, že poté, co pochopili, jak fungují chatboty a generátory obrázků, začali vyzývat své přátele a rodinu, aby generativní AI vůbec nepoužívali, nebo alespoň, aby ji používali opatrně. Tito trenéři pracují s různými modely AI: Gemini od Google, Grok od Elona Muska a další populární modely.

Jedna hodnotitelka pro Google tvrdí, že se snaží AI používat co nejméně. Její osobní zkušenost s hodnocením odpovědí generovaných AI ji přiměla k zamyšlení, zejména v oblasti zdravotních informací. Věří, že je důležité naučit se kritické myšlení, aby děti mohly rozlišovat, zda je výsledek dobrý nebo ne.

Problémy s kvalitou AI

Reakce pracovníků AI ukazují, že nedůvěra ve modely, na nichž pracují, pramení z neustálého důrazu na rychlost dodání na úkor kvality. Mnozí, jako Brook Hansen, vysvětlují, že i když nevěří konceptu generativní AI, nedůvěřují firmám, které tyto nástroje vyvíjejí a implementují. Hansen zdůrazňuje, že dostávají pouze minimální podporu a často nejasné pokyny.

Pokud pracovníci nejsou vybaveni potřebnými informacemi a zdroji, jak mohou být výsledky spolehlivé a etické?

Problémem generativní AI je také šíření nesprávných informací s jistotou, místo aby neodpovídala, když odpovědi nejsou snadno dostupné. Audity prvních deseti modelů generativní AI ukázaly narůstající tendenci k opakování dezinformací.

Vědomé rozhodování a etika

Hansen a Pawloski se rozhodly vzít odpovědnost do svých rukou a informovat veřejnost o etických a environmentálních problémech spojených s umělou inteligencí. Pawloski srovnává etiku AI s textilním průmyslem: spotřebitelé mají právo se ptát, odkud pocházejí data a zda byli pracovníci spravedlivě odměněni.

„Pokud budeme pokračovat v kladení otázek a tlačit na odpovědnost, změna je možná,“ dodává Pawloski.

Please follow and like us:

Doporučené články