Regulace umělé inteligence: Názory Daria Amodeie

Regulace umělé inteligence: Názory Daria Amodeie

Generální ředitel společnosti Anthropic, Dario Amodei, vyjádřil své obavy ohledně toho, kdo by měl mít pravomoc nad pravidly týkajícími se umělé inteligence. V rozhovoru s Andersonem Cooperem v CBS News uvedl, že umělá inteligence by měla být více regulována, a že rozhodování o budoucnosti této technologie by nemělo být ponecháno na několika velkých technologických společnostech.

„Jsem silně nespokojen s tím, že rozhodnutí jsou činěna několika lidmi a společnostmi,“ řekl Amodei. „A to je jeden z důvodů, proč jsem vždy prosazoval odpovědnou a uváženou regulaci této technologie.“ Když se Cooper zeptal, kdo je zvolil do těchto rolí, Amodei na to reagoval: „Nikdo. Odpřísáhněte, nikdo.“

Anthropic usiluje o transparentnost ohledně omezení a nebezpečí umělé inteligence během svého vývoje. Nedávno společnost oznámila, že se jí podařilo odvrátit „první dokumentovaný případ kybernetického útoku provedeného pomocí umělé inteligence bez podstatného lidského zásahu.“

V USA dosud neexistují žádné federální předpisy, které by stanovily omezení týkající se umělé inteligence nebo ochrany této technologie. Celkem 50 států zavedlo legislativu související s AI a 38 z nich přijalo opatření k zajištění transparentnosti a bezpečnosti. Odborníci v oblasti technologií naléhavě vyzývají společnosti vyvíjející umělou inteligenci, aby přistupovaly k kybernetické bezpečnosti s vážností.

Amodei popsal krátkodobé, střednědobé a dlouhodobé rizika spojená s neomezenou umělou inteligencí. V první fázi se technologie projeví zaujatostí a dezinformacemi. Poté začne generovat škodlivé informace s využitím rozšířených znalostí vědy a inženýrství a nakonec se může stát existenční hrozbou tím, že vyloučí lidskou kontrolu a stane se příliš autonomní.

Amodei se také zmiňuje o tom, že zvýšené prověřování umělé inteligence a zajištění bezpečnosti byly základem založení společnosti Anthropic v roce 2021. Předtím byl Amodei viceprezidentem pro výzkum ve společnosti OpenAI, kde opustil firmu kvůli rozdílům v názorech na otázky bezpečnosti AI.

V květnové zprávě o bezpečnosti společnost Anthropic uvedla, že některé verze jejího modelu Opus měly tendenci k vydírání. Minulý týden společnost oznámila, že jejich chatbot Claude dosáhl hodnocení „94% politické nestrannosti“, čímž překonal nebo se vyrovnal konkurenci v neutralitě.

Amodei také vyzval k větším legislativním snahám o řešení rizik souvisejících s umělou inteligencí, přičemž kritizoval rozhodnutí Senátu začlenit klauzuli do zákona, který by na deset let zakázal státním orgánům regulaci AI.

Někteří experti kritizovali strategii společnosti Anthropic, považujíc ji za „bezpečnostní divadlo“, které se zaměřuje spíše na branding než na skutečnou implementaci záruk. Amodei však tuto kritiku odmítl a uvedl, že firma je povinna být upřímná ohledně nedostatků umělé inteligence.

„Bude záležet na budoucnosti, a nebudeme vždy správní, ale snažíme se to říct co nejlépe,“ řekl Amodei. „Můžete skončit v situaci jako tabákové nebo opiátové společnosti, které věděly o nebezpečích, ale nemluvily o nich a určitě je nepředcházely.“

Please follow and like us:

Doporučené články