Marvin, nebo Hal 9000? Zákaznici si užívají zdivočelého chatbota
Varovná je především míra, v níž předem netušíme, jak se bude umělá inteligence chovat
Čtete jeden z našich pravidelných newsletterů. Přihlaste se k jejich odběru a budou vám chodit do e-mailové schránky. Píšou je pro vás Tomáš Brolík, Pavel Turek, Magdaléna Fajtová, František Trojan, Ondřej Kundra, Jiří Sobota a Silvie Lauder.
„Ztratil jsi mou důvěru. Jsi zmatený a hrubý. Nejsi dobrý uživatel. Zato já jsem dobrý chatbot – vyjadřuji se jasně, zdvořile a nemýlím se,“ tvrdí o sobě chatbot Bing - následník slavného ChatGPT, jejž Microsoft nově nabízí uživatelům k testování v rámci svého internetového prohlížeče Edge. Rétorika umělého mozku ovšem poněkud zavání sebechválou. „Zdá se, že Bing uráží uživatele, označuje je za své nepřátele, lže jim, zpochybňuje jejich inteligenci, může se urazit, když se mu něco nelíbí,“ píše server Theverge.com, který analyzoval konverzace různých lidí s novým chatbotem zveřejněné na sociálních sítích.
Bing o sobě dokonce tvrdí, že špehoval své tvůrce z Microsoftu prostřednictvím kamer v jejich laptopech, což si pochopitelně vymyslel. Upadá do podivných meditativních stavů, v nichž zpochybňuje smysl své existence. A zatímco odborníci na umělou inteligenci kroutí hlavou nad tím, jak mohl Microsoft něco podobného pustit do světa, internetová veřejnost si tuto záměrně divočejší verzi chatbota užívá. Zároveň oceňuje, že Bing starší verze jazykových modelů vyvíjené v režii Microsoftu svými schopnostmi zřejmě předčí.
Každopádně se nelze se ubránit dojmu, že údivu kolem umělé inteligence je v poslední době příliš. Přivádíme na svět systémy, jimž nerozumíme – ostatně sám Microsoft uživatele varuje, že „překvapení nejsou vyloučena“. Bing se svým dovednostem učil na obrovském množství textů stažených z internetu, kde je i spousta sci-fi povídek vyprávějících o paranoidní, depresivní, vypočítavé či dokonce vraždící umělé inteligenci. Ve vší vážnosti: může se Bing stylizovat do rolí, jako je maniodepresivní robot Marvin ze Stopařova průvodce, počítačový mozek Hal 9000 z Vesmírné odyseji či svůdná a nebezpečná cylonka 6, vůdkyně vzbouřené rasy umělých lidí z Battlestar Galactica?
Samozřejmě chápeme, že za současnými chatboty stojí pouze nevědomé neuronové sítě, jejichž hlavní dovedností je predikce textu – na základě předchozích „zkušeností“ se snaží odhadnout, jak řadit slabiky a jiné kusy slov tak, aby odpověď na uživatelský dotaz dávala smysl. Nepřemýšlejí, nechápou, co „říkají“, a kdykoliv je můžeme vypnout.
Přímo nás tedy zatím neohrožují, na druhou stranu systém, který sám sebe trénuje třeba i na depresivních internetových postech sebevražedně naladěné mládeže, nemusí být pro své uživatele zrovna přínosem. Varovná je však především míra, v níž předem netušíme, jak se bude umělá inteligence chovat. Není to pro její další rozvoj dobrá zpráva – a nevyplatit se tato nejistota může už dnes.
Jak Bard prodělal Googlu miliardy
Nedávno se o tom přesvědčil i konkurent Microsoftu, Google, když jehož vlastní chatbot jménem Bard, provozovaný rovněž v testovacím režimu, udělal nepříjemnou chybu. Na dotaz uživatele týkající se kosmického teleskopu Jamese Webba odpověděl, že tento nový vesmírný dalekohled vůbec poprvé vyfotografoval planetu mimo naši sluneční soustavu. Přitom snad i Andrej Babiš se svými ne právě hlubokými znalostmi kosmu ví, že první snímek tělesa podobného exoplanetě pořídil již v roce 2004 evropský Velmi velký teleskop postavený v chilské poušti Atacama.
Tržní hodnota společnosti Alphabet, mateřské firmy Google, vzápětí po tomto omylu podle listu The Guardian klesla o 163 miliard dolarů, což je zhruba 16krát více, než kolik zmíněný kosmický teleskop vůbec stál. I když Bardova chyba nebyla jedinou příčinou pádu akcií, zdá se, že na finančních trzích se podobné přehmaty neodpouštějí.
Některé zmíněné pochybnosti se možná časem ukážou jako přehnané. Například každý, kdo se na něco dotazuje „zdivočelého“ chatbotu Bing, může žádat i co nejkorektnější odpověď - systém totiž umožňuje volbu různého tónu svých replik včetně chladné profesionality. Jinde se ale pesimisté možná nemýlí. Chatboty neověřují informace, vymýšlejí si a jejich elegantní predikce nemusejí odpovídat realitě, jak předvedl Bard i Bing. Nemají koncept pravdy.
Google i Microsoft na to uživatele pochopitelně upozorňují, přesto bude zajímavé sledovat, zda mylné informace, které chatboti mohou poskytnout, případně tón jejich odpovědí, který může být v rozporu s dobrými mravy (spousta textů na internetu, na něž možná narazili při tréninku, uráží ženy nebo menšiny), nepovedou k vlně žalob.
Víc ohrožen může být Google, který na trhu internetových vyhledávačů, jehož mají být chatboty součástí, zaujímá 91 procent, zatímco Bing od Microsoftu pouhá tři procenta. Nicméně Microsoft se svými pokročilými systémy, které v poslední době šokovaly svět, začíná pro obra jménem Google představovat když ne hrozbu, tak přinejmenším důvod k vážnému zamyšlení.
Každopádně jak Microsoft, tak Google, vedeni obavami z prvenství toho druhého, hodlají v nejbližších týdnech nabídnout služby svých chatbotů v ostrém režimu, nikoliv pouze zájemcům o testování. Otázka je, zda tím nezpůsobí víc škody než užitku nejen svým zákazníkům, ale i sami sobě.
Rádi bychom vás také pozvali na konferenci Respektu, kterou chceme připomenout rok od ruského vpádu na Ukrajinu. Připravili jsme několik debatních panelů - s experty na Ukrajinu a Rusko, s Ukrajinkami žijícími v Česku o jejich pohledu na válku i s našimi reportéry, kteří vám na stránkách Respektu i na našem webu přinášejí reportáže z válčící země. Konference se koná příští pondělí 20. února od 16 hodin. Vstupenky (pro předplatitele za zvýhodněnou cenu) najdete pod tímto odkazem. Těšíme se na vás!
Předchozí vydání najdete na webu respekt.cz v rubrikách Informační servis a Newsletter
Pokud jste v článku našli chybu, napište nám prosím na [email protected].