8.5 C
Brno
Pátek, 19 dubna, 2024
DomůNovinkyOdlišit text od umělé inteligence a od člověka je stále obtížnější.

Odlišit text od umělé inteligence a od člověka je stále obtížnější.

Date:

Nenechte si ujít

Toyota se vodíku nevzdává.

Zatímco jeden prototyp využívá palivové články k získání energie...

Používání služeb katastru se starším občanským v roce 2023 nebude možné.

Dostupné bude jen dočasné řešení pro vybrané služby. Používání elektronických...

EU schválila SR státní pomoc za 250 milionů. eur pro energeticky náročné společnosti

Komise posuzovala opatření podle pravidel EU o státní podpoře,...

Děti nepotřebují jen dynamické sporty, jóga je užitečný trend i pro nejmenší

Díky populárnímu cvičení se naučí poznávat sebe i okolní...

Léto a dětská pokožka: Pět pravidel péče o pleť dětí

Kůže malých dětí je citlivá a jemná. V letním...
- Komerční sdělení -časopis

Zatím neznámo, kdy se podobný nástroj dostane do praxe.

Společnost OpenAI už prý hledá řešení a pracuje na nástroji, který by dokázal rozlišit text vygenerovaný s pomocí AI od textu napsaného skutečným člověkem. Experti s tím ale vidí několik problémů. Tématu se věnoval web TechCrunch.

Plány společnosti prozradil americký profesor Scott Aaronson z univerzity UATX, který zároveň působí také jako hostující výzkumník ve firmě OpenAI. Podle jeho slov už společnost pracuje na nástroji, který by dokázal přidávat vygenerovanému textu od umělé inteligence speciální „vodoznak“.

Cílem je, aby „vodoznak“ nebyl viditelný pro běžného člověka, ale zároveň by byl snadno rozpoznatelný se správným softwarem či klíčem. Popsal to jako „nenápadný tajný signál“. Jeden z výzkumníků prý již připravil funkční prototyp takového řešení a domnívá se, že by mohl být implementován do budoucích řešení OpenAI.

Kontrola by fungovala jen s klíčem
Takový „vodoznak“ by měl v případě textových výstupů umělé inteligence podobu jisté pravidelnosti nebo opakovaného vzoru. V praxi totiž AI funguje tak, že analyzuje slova zadání a svých předchozích odpovědí, přičemž při generování každého dalšího slova své odpovědi se rozhoduje na základě pravděpodobnosti. Vhodných totiž může být více formulací či synonym, které lze obměňovat bez vlivu na význam textu. Nějaké tedy musí vybrat.

Když je výběr slov skutečně náhodným a vlastním rozhodnutím AI, vygenerovaný text se od lidské tvorby odlišit nedá. Jak připomíná TechCrunch, vidět to je tehdy, když AI při stejné otázce poskytne dvě odlišné odpovědi. Do rozhodování AI o výběru dalšího slova se však dá algoritmicky zasahovat, přičemž tyto zásahy lze i zpětně detekovat v hotovém textu.

A právě takový přístup má údajně OpenAI zvažovat. Na serveru má běžet kryptografická funkce, která bude výběr jednotlivých slov odpovědi ovlivňovat podle stanoveného vzoru (klíče). Tím nepatrně naruší náhodnost odpovědí. Vygenerovaný text od umělé inteligence pak při obyčejném čtení bude působit k nerozeznání od lidské tvorby, ale odborníci či firmy znalé vzoru (klíče) kryptografické funkce budou umět zjistit, zda tento text skutečně pochází od AI nebo ne.

Aaronson prozradil, že podobný systém by dokonce uměl analyzovat i hybridní text. Dalo by se tedy určit, které části pocházejí od umělé inteligence, a které naopak dopsal člověk. Využití by si podobná kontrola našla především na akademické půdě, kde ji mohou studenti snadno zneužít při psaní referátů nebo slohových prací. Stejně tak by však byla užitečná například při detekci automaticky šířeného spamu nebo dezinformací na internetu.

Problémem je uzavřenost i spolehlivost
Společnost OpenAI v oficiálním vyjádření k tomuto tématu odmítla prozradit jakékoli podrobnosti. Dodala jen, že opravdu zkoumá různé možnosti pro detekci textu vygenerovaného pomocí AI a ukrývání „vodoznaků“ je jednou z nich.

Co se týče názoru odborníků, Jack Hessel z výzkumného ústavu Allen Institute for AI se pro TechCrunch vyjádřil, že jeden problém vidí v uzavřenosti celého systému. Pokud by se vývojáři umělé inteligence rozhodli vzor (klíč) „vodoznaku“ nezveřejnit, byli by jedinou firmou, která by výstupy jejich AI dokázala odlišit od lidské tvorby.

Komplikované by podle něj bylo i správné nastavení funkce upravující výstupní text. S agresivními nastaveními by byl generovaný text upravován příliš, čehož by si pozornější čtenáři mohli všimnout jako nevhodnou nebo nepřirozenou volbu slov. Příliš jemné úpravy by na druhé straně bylo obtížné spolehlivě detekovat.

Dále prostřednictvím zmíněného webu zveřejnil svůj názor profesor Srini Devadas z amerického institutu MIT. Skeptický je vůči spolehlivosti takové detekce, protože si myslí, že výsledky by se daly snadno ovlivnit zásahy do textu v podobě přepsání některých pasáží nebo použití synonym.

Nejnovější příběhy

- Komerční sdělení -pr článek
Předchozí článek