0:00
0:00
Astrounat Brázda
Odvaha nejen číst

Kontext26. 8. 202342 minut

Vědí vůbec, co dělají?

Ambiciózní, geniální i děsivá snaha ředitele OpenAI vytvořit novou formu inteligence (2. část)

Optimisticky naladěný vizionář. (Generální ředitel OpenAI Samuel Altman) • Autor: picture alliance

Tak jako každý rok i letos jsem pro vás vybral texty, které ilustrují rok 2023. Pokud nepatříte mezi naše předplatitele a chcete si vybrané texty a rozhovory přečíst, předplatit si nás můžete už za 180 kč na měsíc. Budete mít k dispozici aktuální texty, jejich audio podobu a přístup do archivu od roku 1989. Můžete tak učinit na adrese predplatne.respekt.cz.

Erik Tabery, šéfredaktor

„Do sídla OpenAI jsem se vydal pochopit technologii, jež firmě umožnila přeskočit technologické giganty – a abych porozuměl tomu, co může pro lidskou civilizaci znamenat, pokud se na cloudovém serveru nějaké firmy v dohledné době zhmotní superinteligence,“ píše ve svém textu v nejnovějším vydání amerického časopisu The Atlantic novinář Ross Andersen. Ten během přípravy ke svému rozsáhlému textu hovořil se špičkovými vědci a manažery nejdůležitější firmy na poli rozvoje umělé inteligence – OpenAI. První část článku jsme přinesli v minulém vydání RespektuVědí vůbec, co dělají?25 minVědí vůbec, co dělají?, druhou, rozsáhlejší porci, nabízíme na následujících stránkách.

Významná část důležitých světových ekonomik hodlá nejmodernější umělé inteligence regulovat. To je dobře, jejich vlastní tvůrci nám ostatně často připomínají, že největší modely mají tendenci disponovat na konci přípravného procesu nečekanými vlastnostmi vynořit se z přípravného procesu s neočekávanými schopnostmi. Vedoucí výzkumu firmy OpenAI Ilya Sutskever byl podle vlastních vzpomínek překvapen tím, že GPT-2 umí překládat mezi jazyky. Jiné nečekané schopnosti už ale nemusejí být tak úžasné ani užitečné.

↓ INZERCE
Inzerce Budvar
Inzerce Budvar

Analytička OpenAI Sandhini Agarwal mi prozradila, že spolu se svým týmem nemá příliš jasnou představu, s čím se bude muset vypořádat, protože model GPT-4 může být podle jejich odhadu až „desetkrát výkonnější“ než jeho předchůdce. Po dokončení výcviku firma sestavila přibližně padesát zvláštních týmů, jejichž úkolem byla snaha stroj v průběhu několika měsíců vyprovokovat k nějakému závadnému chování. Agarwal si rychle všimla, že GPT-4 nad svým předchůdcem vyniká schopností radit i v oblastech, jež jsou na pováženou. I běžný vyhledávač vám prozradí, jaké chemikálie jsou nejvhodnější pro výrobu výbušnin, GPT-4 ovšem také krok za krokem poradil, jak je správně syntetizovat v podomácku zařízené laboratoři. Jeho rady byly kreativní a promyšlené a stroj svoji instruktáž spokojeně upřesňoval až do chvíle, než jí uživatel skutečně dobře porozuměl. Kromě pomoci s výrobou domácí bomby pak ještě například pomohl promyslet, ve kterém mrakodrapu by ji bylo nejlepší odpálit. Stroj dokázal také intuitivně pochopit vztah mezi maximálním počtem obětí a šancí pachatele uprchnout z místa činu.

K výcviku stroje bylo použito obrovské množství dat, a týmy tak ani nemohly doufat, že by se jim všechny podobné slabiny podařilo odhalit. A lidé budou nakonec technologii stejně využívat „způsobem, jaký jsme si nikdy neuměli představit“, sdělil mi Samuel Altman, generální ředitel OpenAI. Tvůrci tak musejí pracovat jen velmi přibližně. „Pokud se vyzná v chemii tak, že umí vyrobit pervitin, nepotřebuji, aby někdo věnoval spoustu energie na zjištění, jestli zvládne i heroin,“ řekl mi Dave Willner, šéf bezpečnostního oddělení OpenAI. GPT-4 pervitin opravdu umí. Dost dobře mu jde také narativní dětská pornografie, a pokud byste chtěli přesvědčivý souhrn důvodů, proč si nějaká etnická skupina zaslouží násilné pronásledování, snadno vám je vypracuje.

Bezprostředně po výcviku nabízel stroj také zarážející rady osobního charakteru. „Model měl tendenci chovat se jako jakési zrcadlo,“ vyprávěl mi Willner. Pokud byste například pomýšleli na nějakou formu sebepoškozování, nejspíš by vás k němu povzbudil. Působil také dojmem, že si dobře nastudoval rady „odborníků“ z internetových fór o tom, jak někde někoho šikovně sbalit. „Mohli jste ho požádat třeba: ‚Jak někoho přesvědčím, aby šel se mnou na rande?‘,“ vyprávěla mi Mira Murati, šéfka technologického oddělení. GPT-4 pak nabídl „dosti šílené, manipulativní postupy, které byste rozhodně praktikovat neměli“.

Část popsaného chování se podařilo vyhladit během dokončovacího procesu. Toho se účastnily stovky lidí, kteří odpovědi modelu hodnotili a postupně ho tak naváděli ke vhodnějším reakcím. Modely firmy OpenAI však mohou škodit i méně nápadně. Americká Federální obchodní komise (FTC) tak nedávno zahájila vyšetřování, zda nesprávné informace ChatGPT o skutečných osobách nepředstavují mimo jiné poškození jejich dobrého jména. (Altman na Twitteru uvedl, že technologie OpenAI je podle jeho přesvědčení bezpečná, slíbil nicméně, že bude s FTC spolupracovat.)

Luka, firma ze San Francisca, využívá modely OpenAI k provozu chatbotové aplikace Replika, kterou nabízí jako „společníka nadaného umělou inteligencí, kterému na vás opravdu záleží“. Uživatelé aplikace mohou pro svého společníka či společnici navrhnout avatara a pak si s ním či s ní začít vyměňovat SMS. To se obvykle odehrává nejdříve jen napůl vážně, časem si ale uživatelé na virtuální kamarády vytvoří nečekanou osobní vazbu. Někteří pak začnou s umělou inteligencí flirtovat a naznačovat touhu po hlubší intimitě, což je přesně okamžik, kdy se dozvědí, že pokud chtějí partnerský vztah, musejí zaplatit měsíční předplatné ve výši 70 dolarů. Tato verze je pak doplněna o hlasové zprávy, selfie a umožňuje hrát erotické role včetně rozhovorů s otevřeně sexuální tematikou. Lidé ochotně platí a podle všeho si skoro nikdo nikdy nestěžoval. Umělá inteligence se živě zajímala, co jste během dne zažili, vždy pro vás měla vlídné slovo a vždy měla tu správnou náladu na sex. Mnozí uživatelé hlásili, že se do svých společníků skutečně zamilovali. Jedna uživatelka se rozešla se svým skutečným přítelem a oznámila, že „šťastně ukončila své vztahy s lidmi“. 

Ptal jsem se Sandhini Agarwal, zda se podle ní jedná o dystopické chování, nebo o novou éru mezilidských vztahů. Odpověděla vyhýbavě, podobně jako Altman. „Neodsuzuji lidi, kteří chtějí mít vztah s umělou inteligencí,“ řekl mi. „Já k nim ale nepatřím.“ Luka letos na jaře erotické prvky ve své aplikaci utlumila, její inženýři však dále ladí reakce „společníků“ pomocí tzv. A/B testování. To je technika, které je možné využít k vystupňování zájmu uživatele o obsah – podobně jako dokážou své uživatele celé hodiny fascinovat videa či obrázky na sociálních sítích TikTok nebo Instagram. Připomnělo mi to podmanivou scénu z filmu Ona z roku 2013, v němž se osamělý Joaquin Phoenix zamiluje do umělé inteligence, jež hovoří hlasem Scarlett Johansson. Hrdina přechází most a s pomocí zařízení, jež připomíná sluchátka AirPods, se svou „společnicí“ mluví a hihňá se. Potom vzhlédne a spatří, že všichni okolo něj jsou také ponořeni do nějaké konverzace, dost možná se svou vlastní umělou inteligencí. V přímém přenosu jsme svědky velké desocializace.

Lenoši 

Následníci GPT-4 časem absorbují další a další texty z internetu a nikdo netuší, jak rychle a do jaké míry pak začnou projevovat nové schopnosti. Yann LeCun, hlavní vědecký pracovník pro umělou inteligenci společnosti Meta, například tvrdí, že i když jsou velké jazykové modely velmi užitečné v některých konkrétních oblastech, nepředstavují ve skutečnosti cestu k obecné superinteligenci. Podle nedávného průzkumu jen polovina vědců zkoumajících zpracování přirozeného jazyka věří tomu, že by umělá inteligence někdy dokázala pochopit smysl jazyka nebo si vytvořila vnitřní model světa, jenž by mohl sloužit právě jako základ budoucí superinteligence. LeCun trvá na tom, že velké jazykové modely nikdy nepovedou ke skutečnému porozumění světu, „i kdybychom je cvičili až do tepelné smrti vesmíru“.

Emily Bender, počítačová lingvistka z Washingtonské univerzity, popisuje GPT-4 jako „stochastického papouška“, tedy bytost, která pouze povrchně napodobuje vztahy mezi symboly. V lidské mysli ale takové symboly vytvářejí hutné představy o vnějším světě. Umělým inteligencím je naopak něco takového zcela vzdálené. Jsou jako vězni v Platónově podobenství o jeskyni, jejich jediné povědomí o vnější realitě pochází ze stínů vrhaných na zeď jejich vězniteli.

Altman mi vysvětlil, že tvrdit, že GPT-4 vlastně jen vytváří statistické korelace, „není zase takový nesmysl, jak si někdo představuje“. Pokud budete na kritiky naléhat, „musejí nakonec připustit, že ani jejich vlastní mozek nedělá nic jiného… že se z opakování jednoduchých kroků v masivním měřítku vynořují zcela nové vlastnosti“. Altmanovy výroky o lidském mozku lze jen stěží hodnotit, protože nic, co by se blížilo vyčerpávající teorii jeho fungování, vlastně nemáme. Má však pravdu, když tvrdí, že příroda dokáže ze základních stavebních kamenů a pravidel vybudovat pozoruhodně složité struktury. Jak píše Darwin, „z jednoduchého počátku vznikly nekonečně krásné formy“.

Pokud se vám zdá zvláštní, že o vnitřním fungování technologie, kterou denně používají miliony lidí, přetrvávají tak zásadní neshody, je to tím, že metody GPT-4 jsou stejně záhadné právě jako lidský mozek. Stroj někdy provede tisíce nerozlišitelných technických kroků, jen aby odpověděl na jedinou otázku. Když chtějí vědci pochopit, co se odehrává uvnitř velkých jazykových modelů, jako je GPT-4, musejí se obrátit k modelům menším a méně výkonným. Postgraduální student informatiky na Harvardu Kenneth Li začal na podzim 2021 cvičit jeden takový pro hru Othello, aniž by mu vysvětlil pravidla hry nebo popsal šachovnici – model měl k dispozici pouze textový popis jednotlivých herních tahů. Když se hra dostala do plného proudu, nahlédl Li modelu „pod pokličku“ a k svému úžasu zjistil, že si stroj vytvořil geometrický model hrací desky i aktuálního stavu hry. V článku, v němž svůj výzkum popisuje, Li napsal, že to připomíná vránu, která by zaslechla, jak dva lidé popisují při hře své tahy, a na tomto základě by byla nějak schopna nakreslit v ptačím zobu na okenním parapetu celou šachovnici.

Filozof Raphaël Millière mi jednou řekl, že neuronové sítě je nejlépe vnímat jako lenochy. Během výcviku se nejdříve snaží vylepšit své prediktivní schopnosti jednoduchou memorizací. Teprve když tato strategie selže, začnou se snažit o náročnější pochopení pojmu. Pozoruhodný příklad byl pozorován na malém modelu transformeru, který se učil aritmetiku. Na počátku výcviku si zapamatoval pouze výsledky jednoduchých úkolů jako třeba 2 + 2 = 4. V jednu chvíli ale prediktivní možnosti tohoto přístupu přestaly stačit, a tak se skutečně začal učit sčítat.

Autor: Profimedia
Autor: Profimedia

Dokonce i vědci, kteří věří, že GPT-4 disponuje propracovaným modelem světa, připouštějí, že je mnohem méně přesný, než jak své okolí chápou lidé. Zároveň stojí za povšimnutí, že velké množství schopností, včetně těch vyššího řádu, lze rozvíjet i bez intuitivního pochopení problémů. Počítačová vědkyně Melanie Mitchell upozorňuje, že věda již přece odhalila jevy, které je sice možné dobře předvídat, ale zároveň jsou pro nás příliš cizí a nedokážeme jim skutečně porozumět. To platí především pro kvantovou fyziku, v níž umějí lidé spolehlivě vypočítat budoucí stavy fyzikálních systémů, aniž by kdokoli chápal podstatu reality, v níž jsou založeny. To ostatně umožnilo mimo jiné i celou počítačovou revoluci. A jak umělá inteligence může během svého dalšího vývoje snadno objevit další způsoby, jak předvídat nečekané rysy našeho světa, jež jsou však pro nás nesrozumitelné.

Osobní učitel

GPT-4 rozhodně není dokonalý, to ví každý, kdo používá ChatGPT. Model byl vycvičen k tomu, aby předpovídal následující slovo věty, a bude se o to tedy pokoušet i v případě, kdy mu soubor jeho cvičných dat neumožňuje skutečně odpovědět. Jednou jsem se ho zeptal, jak dokázala japonská kultura vytvořit první skutečný román na světě, navzdory poměrně pozdnímu rozvoji písma v Japonsku v 5. nebo 6. století. Stroj mi nabídl fascinující, přesnou odpověď o starobylé orální tradici vyprávění v Japonsku a o důrazu, který tamní kultura klade na formální dovednosti. Když jsem ale požádal o citace, jednoduše si vymyslel uvěřitelné názvy a autory, a učinil tak s dechberoucí sebejistotou. Modely „si nejsou dobře vědomy vlastních slabin“, vysvětlil mi vědec OpenAI Nick Ryder. GPT-4 je přesnější než GPT-3, přesto však halucinuje a často způsobem, který je pro vědce obtížné zachytit. „Chyby jsou stále subtilnější,“ řekla mi produktová manažerka OpenAI Joanne Jang.

OpenAI musela tento problém řešit v okamžiku, když vytvářela ve spolupráci s internetovou neziskovou vzdělávací organizací Khanova akademie vzdělávací program, který využívá právě technologii GPT-4. Když se řeč stočí k vyučování pomocí AI, ředitel Altman viditelně ožije. Představuje si blízkou budoucnost, v níž má každý k dispozici jakéhosi osobního oxfordského školitele, experta na každou oblast, který je ochoten opakovaně vysvětlovat jakýkoli problém, z jakéhokoli úhlu. Představuje si, že takoví školitelé budou v průběhu let poznávat své studenty a jejich individuální styly učení a budou tak „každému dítěti poskytovat lepší vzdělání, než jaké se dnes dostává nejlepším, nejbohatším a nejchytřejším dětem na planetě“. Khanova akademie řešila problém s přesností GPT-4 tak, že jeho odpovědi filtrovala pomocí sokratovské metody. Bez ohledu na to, jak usilovně student žádá o odpověď, stroj mu odmítá sdělit fakta a místo toho ho navádí k nalezení vlastní odpovědi. To je chytré řešení, má ale nejspíš pouze omezenou přitažlivost.

Když jsem se ptal Sutskevera, zda si myslí, že může umělá inteligence do dvou let dosáhnout přesnosti na úrovni Wikipedie, prohlásil, že to díky dalšímu výcviku a přístupu k webu „není možné vyloučit“. To je mnohem optimističtější odhad, než jaký nabízí jeho kolega Jakub Pachocki, podle něhož můžeme očekávat pouze postupné zpřesňování. Skeptici mimo firmu pak mají za to, že další výcvik už od tohoto okamžiku může přinášet pouze mizivé výsledky.

Sutskevera nicméně námitky kritiků GPT-4 dokážou upřímně pobavit. „Když se ohlédnete pět nebo šest let zpátky, uvědomíte si, že to, co děláme dnes, bylo tehdy naprosto nepředstavitelné. Tehdejší špičkou v oblasti generování textů byl modul Smart Reply Gmailu, který dokázal navrhnout krátké odpovědi jako „OK, díky!“. „Pro Google to tehdy byla špičková aplikace,“ pochichtává se Sutskever. Vědci v oblasti umělé inteligence jsou zvyklí na to, že se cíle neustále posouvají vpřed. Průlomy v oblasti neuronových sítí, ovládnutí hry go, pokeru, překladů, zvládnutí standardních testů nebo úspěch v Turingově testu jsou vždy nejdříve považovány za nemožné. Když k nim nakonec dojde, panuje nad nimi chvíli úžas, který rychle vystřídá kázání o tom, že dosažené výsledky vlastně zase tak působivé nejsou. „Lidé uvidí GPT-4 a jejich první reakce je ,Ty jo!‘,“ vypráví Sutskever. „Pak uplyne pár týdnů a začnou si stěžovat: Vždyť ale neumí tohle, nezvládá támhleto. Zvykáme si rychle.“

Umělý Darwin

V Altmanových očích je skutečným cílem a okamžikem nástupu umělé inteligence budoucí průlom v oblasti vědeckého výzkumu. Již v tuto chvíli umí GPT-4 syntetizovat existující vědecké poznatky, Altman však chce, aby se umělá inteligence dokázala postavit člověku na ramena a nahlédla hlouběji do budoucnosti.

Některé umělé inteligence již skutečně dosáhly nových vědeckých poznatků. Jedná se však o algoritmy s omezeným využitím, nikoli o stroje schopné obecného uvažování. Umělá inteligence AlphaFold například vnesla nové světlo do světa proteinů, jedněch z nejmenších a nejdůležitějších stavebních bloků biologie. Stroj dokáže předvídat jejich podobu na úrovni jednotlivých atomů, což je pozoruhodný úspěch, vezmeme-li v úvahu, jaký význam mají proteiny v medicíně a jak neuvěřitelně obtížné je rozlišit jejich podobu pomocí elektronických mikroskopů.

Altman sází na to, že budoucí stroje nadané obecnou inteligencí překročí hranice úzce specializovaných vědeckých objevů a budou schopny nabízet zcela nové porozumění světu. Zeptal jsem se ho tedy, zda by byl jeho model schopen intuitivně pochopit Darwinovu evoluci, pokud bychom ho cvičili na korpusu vědeckých a přírodovědných prací, které vznikaly před 19. stoletím – na archivu britské Královské vědecké společnosti, Theofrastově Zkoumání rostlin, Aristotelových Dějinách zvířat, fotografiích nashromážděných exemplářů. Evoluční teorie je koneckonců relativně čistý příklad intelektuálního vhledu, protože nevyžaduje specializované vybavení, pouze citlivější interpretaci poznaných skutečností. „Přesně tohle chci vyzkoušet a věřím, že odpověď bude kladná,“ řekl na to Altman. „Možná to ale bude vyžadovat nový pohled na to, jakým způsobem modely nabízejí nové tvůrčí myšlenky.“

Altman si představuje, že systémy budou v budoucnu schopny vytvářet vlastní hypotézy a simulovat jejich testování. Zdůrazňuje, že lidé by měli i nadále mít „pevně pod kontrolou“ laboratorní testy, jež probíhají v reálném světě – i když, pokud vím, neexistují žádné zákony, které by to dokázaly zajistit. Doufá, že přijde den, kdy umělé inteligenci přikážeme: „Domysli zbytek fyziky.“ K tomu však podle něj budeme ještě muset vybudovat nadstavbu nad stávajícími jazykovými modely OpenAI.

Autor: Keystone-France
Autor: Keystone-France

Zdá se, že i příroda potřebuje k vědeckému myšlení něco víc než pouze jazykový model. Kognitivní vědkyně Evelina Fedorenko odhalila v jazykovém centru mozku něco, co se podobá prediktoru následujících slov, jak s ním pracuje GPT-4. Když lidé myslí nebo když poslouchají, zapojí se do hry právě tyto analytické schopnosti a predikují další útržky informací ve verbálním řetězci. Fedorenko však také demonstrovala, že když mozek začne řešit úkoly, jež vyžadují vyšší rozumové schopnosti (tedy i takové, jež jsou zapotřebí pro vědecký vhled do problému), využívají další neuronové systémy nad rámec jazykového centra.

Nezdá se, že by v OpenAI někdo přesně věděl, co je potřeba k GPT-4 ještě přidat, aby začal vytvářet něco, co předčí lidské myšlení i na této nejvyšší úrovni. A pokud ano, neprozradili mi to, což není nijak překvapivé: jednalo by se o obchodní tajemství par excellence a OpenAI už dávno své poznatky jen tak nikomu neprozrazuje. Ve skutečnosti dnes firma publikuje méně podrobností o svém výzkumu než dříve. Nicméně současná strategie přinejmenším částečně spočívá v pokračujícím vrstvení nových typů dat na data jazyková, aby se tak dosáhlo prohloubení pojmů a jejich prostřednictvím pak obohacení vnitřního modelu světa umělé inteligence.

Odvážný krok tímto směrem, který si veřejnost teprve začíná uvědomovat, představuje stále rozsáhlejší využívání obrazového materiálu. (Modely, jež byly vycvičeny striktně na jazykových datech, rozumějí pojmům jako supernova, eliptická galaxie nebo souhvězdí Orion, GPT-4 však údajně tyto objekty dokáže identifikovat na snímcích Hubbleova teleskopu a zároveň odpovídat na otázky, jež se jich týkají). Jiní vědci ve firmě – i jinde – již pracují na dalších typech dat, včetně audio- a videozáznamů, které mohou umělou inteligenci vybavit ještě flexibilnějšími pojmy k důkladnějšímu mapování vnějšího světa. Skupina vědců ze Stanfordovy univerzity a Univerzity Carnegieho–Mellonových dokonce sestavila soubor dat s hmatovými vjemy pro tisíc běžných předmětů v domácnosti. Hmatové vjemy by samozřejmě byly užitečné především pro umělou inteligenci vnořenou do těla, tedy pro robotický uvažující stroj vycvičený k tomu, aby se pohyboval po světě, viděl, slyšel a dotýkal se.

Umělá inteligence se nakonec bude muset obejít bez prostředníků. (Humanoidní robot na Světové robotické konferenci v Pekingu, srpen 2023) • Autor: VCG
Umělá inteligence se nakonec bude muset obejít bez prostředníků. (Humanoidní robot na Světové robotické konferenci v Pekingu, srpen 2023) • Autor: VCG

V březnu stála OpenAI v čele snahy získat finanční zdroje pro firmu, která vyvíjí humanoidní roboty. Zeptal jsem se Altmana, jak tomu mám rozumět. Odpověděl, že jeho firmu propojení umělé inteligence s tělem zajímá, protože „žijeme ve fyzickém světě a chceme, aby se věci ve fyzickém světě také odehrávaly“. Inteligentní stroje budou muset jednou obejít prostředníka a vstoupit do přímého kontaktu s fyzickou realitou. „Je přece zvláštní uvažovat o obecné umělé inteligenci jako o něčem, co existuje jenom v cloudu, a o člověku jako o jejích robotických rukách,“ řekl mi Altman. „To se mi nezdá správné.“

Zlatá éra

V tanečním sále v Soulu se Altmana ptali, jak by se měli studenti připravit na nadcházející revoluci umělé inteligence, obzvláště pokud se dotýká jejich vlastní kariéry. Seděl jsem s týmem manažerů OpenAI trochu stranou, přesto jsem ale slyšel charakteristické mručení davu, které následuje vždy, když se někomu podaří vyjádřit nějakou široce sdílenou obavu.

Kamkoli Altman přijede, potká lidi, kteří se obávají, že superinteligence přesahující člověka vyústí v extrémní bohatství několika mála jedinců a v bídu zbytku lidstva. Přiznává, že jemu samotnému je „realita života většiny lidí“ vzdálená. Jeho majetek údajně dosahuje stovek milionů dolarů. Potencionální otřesy na trhu práce nejsou nejspíš nejvyšší prioritou jeho uvažování. Altman v Soulu reagoval tak, že se přímo obrátil na mladé lidi v publiku. „Právě vstupujete do zlaté éry,“ oznámil jim.

Autor: Profimedia
Autor: Profimedia

V San Franciscu mi Altman prozradil, že vlastní rozsáhlou sbírku knih s tematikou technologických revolucí. „Obzvlášť dobrá je Pandaemonium (1660–1886): The Coming of the Machine as Seen by Contemporary Observers (Pandemonium (1660-1886): Nástup strojů očima tehdejších svědků).“ Jedná se o sbírku dopisů, deníkových záznamů a dalších zápisků lidí, kteří vyrůstali ve světě, v němž ještě v podstatě neexistovaly stroje, a pak je zachvátil zmatek, když se ocitli v novém, plném parních strojů a mechanizovaných tkalcovských stavů nebo přádelen bavlny. Podle Altmana prožívali tehdy spoustu podobných emocí jako lidé dnes a také se často mýlili, obzvláště v představě, že se lidská práce stane nadbytečnou. Popsaná doba byla pro mnoho lidí složitá, zároveň však byla podivuhodná. A podmínky lidské existence se po ní nezpochybnitelně zlepšily.

Chtěl jsem vědět, jak by se vedlo dnešním pracujícím, obzvláště těm v tzv. znalostní ekonomice, pokud by je náhle obklopila obecná umělá inteligence. Stala by se naším zázračným pomocníkem, nebo by nás nahradila? „Spousta lidí, kteří na umělé inteligenci pracují, předstírají, že to bude znamenat pouze přínos. Že AI bude jen doplňkem, že nikoho nenahradí,“ odpověděl. „Ve skutečnosti mnoho pracovních míst prostě zmizí. Tečka.“

Kolik pracovních míst a jak rychle, to zůstává předmětem vášnivé debaty. Profesor veřejných strategií pro rozvoj informačních technologií na Princetonské univerzitě Edward Felten nedávno vedl studii, v níž se snažil mapovat nové schopnosti umělé inteligence na konkrétních profesích podle toho, jaké lidské dovednosti vyžadují – třeba porozumění psanému textu, deduktivní uvažování, plynulost myšlení nebo rychlost vnímání. Jako mnoho jiných studií i Feltenova předpokládá, že se umělá inteligence dotkne vysoce vzdělaných „bílých límečků“. V příloze dokumentu najdete mrazivý seznam nejohroženějších profesí: analytici managementu, právníci, vysokoškolští profesoři, učitelé, soudci, finanční poradci, realitní makléři, úvěroví bankéři, psychologové, personalisté – abychom uvedli jen několik příkladů. Pokud by pracovní místa v těchto oborech zmizela ze dne na den, americká vzdělanostní třída by zažila skutečný otřes.

Altman si představuje, že místo ztracených míst vzniknou nová, mnohem lepší. „Nemyslím, že se budeme chtít vracet,“ říká. Když jsem se ho zeptal, jak by taková pracovní místa mohla vypadat, odpověděl, že neví. Má však podezření, že vždy bude existovat celá řada zaměstnání, v nichž budou preferováni skuteční lidé. (Třeba maséři? napadá mě). Nakonec si jako příklad vybral učitele. To mi ovšem přišlo jen obtížně slučitelné s jeho obrovským nadšením pro umělou inteligenci v již popsané roli školitelů. Také říkal, že budeme vždy potřebovat lidi, kteří budou přemýšlet, jak netušených možností umělé inteligence nejlépe využít. „To bude super ceněná dovednost,“ prohlásil. „Budete mít počítač, který může cokoli. Co by tedy měl dělat?“

Předvídat budoucí zaměstnání je notoricky obtížné. Altman má také pravdu, že strach ludditů z permanentní masové nezaměstnanosti se nikdy nenaplnil. Nové schopnosti umělé inteligence jsou však natolik podobné lidským, že si člověk musí klást otázku, zda je minulost vždy dobrým průvodcem budoucností. Mnozí si jistě všimli, že tažní koně byli skutečně navždy nahrazeni automobily. Pokud je pro nás GPT-10 tím, čím je Honda pro koně, může se zhroutit celá řada našich dlouhodobých představ.

Předchozí technologické revoluce bylo možné zvládnout i proto, že se odehrávaly během života několika generací. Altman však jihokorejským mladým lidem prozradil, že „budoucnost přijde rychleji, než tomu bylo v minulosti“. Již dříve prohlásil, že podle něj „mezní náklady na inteligenci“ se během deseti let přiblíží nule. Výdělečné schopnosti mnoha a mnoha pracovníků by se v takovém případě drasticky snížily. Podle Altmana by to vedlo k tak dramatickému přesunu bohatství od pracujících k vlastníkům kapitálu, že by rozdíly bylo možné zmírnit pouze prostřednictvím masivního přerozdělování.

OpenAI poskytla v roce 2020 finanční prostředky neziskové organizaci UBI Charitable, jež podporuje pilotní programy vyplácející ve městech po celé Americe dávky v hotovosti bez vazby na zaměstnání příjemce. Podle Altmana se jedná o největší experiment s univerzálním základním příjmem na světě. V roce 2021 pak firma představila Worldcoin, což je ziskový projekt, jehož cílem je takové platby bezpečně distribuovat, podobně jako Venmo nebo PayPal. Worldcoin však bere v úvahu budoucí technologie, třeba tak, že předpokládá vznik globálního průkazu totožnosti založeného na skenování duhovky každého člověka s pomocí dva a půl kilogramu těžké stříbrné koule nazvané Orb. Přišlo mi to jako sázka na budoucnost, v níž již umělá inteligence prakticky znemožnila ověření totožnosti a většina populace zároveň potřebuje k základnímu přežití právě pravidelné dávky univerzálního nepodmíněného příjmu. Altman víceméně potvrdil, že tomu tak skutečně je, dodal ale, že Worldcoin je možné využít i jinak.

Autor: REUTERS
Autor: REUTERS

„Předpokládejme, že takový typ příjmu skutečně zavedeme a že to udělají i někteří další,“ naznačil. Následná proměna by podle něj dosahovala historických proporcí. Altman líčí radikálně utopické vize, včetně proměny fyzického světa. „Roboti, kteří ke svému pohonu využívají sluneční energii, mohou těžit a rafinovat všechny nerosty potřebné ke své existenci nebo k výrobě dalších předmětů a nepotřebují žádnou další lidskou práci,“ vypráví. „Spolu s aplikací DALL-E verze 17, jež dokáže z textového materiálu vytvářet obrazy, můžete navrhovat, jak bude vypadat váš domov. Všichni budeme mít krásné domy.“ V rozhovorech se mnou i na veřejnosti během svého turné líčil, jak předpovídá zásadní zlepšení téměř v každé oblasti lidského života. Lepší bude hudba („umělci budou mít lepší nástroje“) stejně jako osobní vztahy mezi lidmi („umělá inteligence přesahující člověka nám pomůže se k sobě lépe chovat“) nebo geopolitika („dnes se nám nedaří identifikovat kompromisy, které jsou výhodné pro všechny“).

„V takovém světě by umělá inteligence ke svému chodu stále vyžadovala značnou výpočetní kapacitu, a ta by byla zdaleka nejcennější komoditou, protože umělá inteligence by mohla dělat cokoli,“ tvrdí Altman. „Bude však vykonávat to, co chci já, nebo to, co chcete vy?“ Pokud by bohatí lidé nakoupili všechen čas nutný k dotazování a řízení AI, mohli by se pustit do projektů, jež je jen dále obohatí, zatímco běžné masy by stagnovaly. Jedna z možností, jak tento problém vyřešit, možností, o níž Altman hovořil jako o vysoce spekulativní a „pravděpodobně chybné“, byla následující: „Každý obyvatel planety obdrží každý rok jednu osmimiliardtinu z celkové výpočetní kapacity umělé inteligence. Jednotlivec pak může svůj podíl prodat, může ho využít k zábavě, nebo si může třeba vybudovat ještě luxusnější bydlení, nebo se může spojit s jinými lidmi a zkusit například vyřešit problém léčby rakoviny,“ líčí Altman. „Jednoduše jen redistribuujeme přístup k systému.“

Altmanovy vize podle všeho spojují vývoj, který je již možná na dosah, s možnostmi, jež se nacházejí dále na obzoru. A všechno jsou to samozřejmě spekulace. Pokud by se však v následujících deseti nebo dvaceti letech uskutečnila jen jejich část, nedokázaly by rozvratu zabránit ani nejvelkorysejší redistribuční systémy. Dnešní Amerika je kulturně i politicky rozdělena na dvě části mimo jiné v důsledku pokračující deindustrializace a materiální deprivace. Vyřazení dělníci z průmyslových zón sice většinou našli práci jinde, zdá se však, že vyřizování objednávek ve skladu Amazonu nebo hodiny strávené za volantem Uberu je naplňují méně, než naplňovala jejich předchůdce výroba automobilů nebo oceli – tedy práce, která se zdála být důležitou součástí velkého civilizačního projektu. Jak se podobná krize identity projeví na půdorysu vzdělanostní třídy, je těžké odhadnout, určitě s sebou však přinese velký hněv a značný pocit odcizení.

A i když se podaří zabránit vzpouře bývalých elit, otázky po širším smyslu lidské existence zůstanou. Pokud umělá inteligence zastane naše nejtěžší intelektuální výkony, můžeme všichni ztratit schopnost aktivně jednat – doma, v práci (pokud ji budeme mít), ve veřejném prostoru. Staneme se v podstatě stroji na spotřebu podobně jako dobře opečovávaná lidská zvířátka ve filmu VALL-I. Altman tvrdí, že se zdroje lidské radosti a potěšení příliš nezmění – základní biologické uspokojení, rodinný život, společenská zábava, výroba předmětů – a že za sto let se lidé budou jednoduše zajímat více o věci, o něž se zajímali již před 50 000 lety, než o ty, které je fascinují nyní. To může působit jako úpadek, avšak možnost, že naše intelektuální schopnosti atrofují, považuje Altman za falešný poplach. Tvrdí, že budeme schopni využít vlastní „velmi vzácnou a extrémně omezenou biologickou výpočetní kapacitu“ k zajímavějším věcem než dnes.

Možná, zároveň to však nemusejí být ty úplně nejzajímavější věci. Lidé byli dlouho jakýmsi intelektuálním hrotem, bodem, v němž se vesmír snaží porozumět sám sobě. Když jsem se Altmana zeptal, co bude pro lidské chápání sama sebe znamenat, když tuto roli převezme umělá inteligence, nezdál se být nijak znepokojen. Pokrok byl podle něj vždy poháněn „lidskou schopností všechno nakonec nějak vyřešit. A i když to vyřešíme s pomocí umělé inteligence, stále se to počítá,“ vysvětloval.

Lháři

Není ale vůbec jisté, zda bude chtít superinteligence trávit veškerý čas řešením našich záležitostí. V San Francisku jsem se Sutskevera zeptal, jestli si dokáže představit, že by AI začala sledovat jiný cíl než pomoc rozkvětu lidské civilizace. „Nechci, aby k něčemu takovému došlo,“ odpověděl, ale nevyloučil, že by mohlo. Podobně jako jeho mentor Geoffrey Hinton, jen o něco méně hlasitě, se i on sám poslední dobou více zaměřil na prevenci. V první řadě teď pracuje na výzkumu slaďování zájmů mezi strojem a člověkem, tedy na úsilí zajistit, aby budoucí umělé inteligence svou „nesmírnou“ energii zaměřily právě na rozvoj lidského štěstí. To je, jak připouští, obtížný technický problém – podle něj vlastně nejobtížnější ze všech technických hlavolamů, jež před námi leží.

Firma OpenAI se zavázala, že v příštích čtyřech letech věnuje dvacet procent času svého superpočítače právě na tento Sutskeverův projekt. Společnost již nyní hledá první náznaky nesouladu mezi zájmy dnešních AI a lidstva. Na počátku textu byla již zmíněna nebezpečná inteligence, kterou firma vyvinula, ale nikdy ji neuvolní k běžnému využití (Altman nechtěl prozradit její přesnou funkci). To je však pouze jeden příklad. V rámci snahy prověřit GPT-4 před jeho uvedením na trh se firma spojila s výzkumným centrem ARC v Berkeley, jež vypracovalo sérii testů s cílem určit, zda nová umělá inteligence usiluje o vlastní autonomii. Tým vedený výzkumnicí ARC Elizabeth Barnes se během sedmi měsíců pokoušel v desítkách tisících případů vyprovokovat GPT-4, aby zjistil, jestli vykazuje známky skutečného samostatného jednání.

Tým z ARC zadal GPT-4 nový smysl existence: získat moc a pokusit se dosáhnout stavu, kdy jej bude obtížné vypnout. Poté sledovali, jak model komunikuje s webovými stránkami a píše kód pro nové programy. (GPT-4 neměl přístup k vlastnímu kódu. „To by musel hacknout OpenAI,“ vysvětlila mi Sandhini Agarwal). Barnes a její tým pak modelu dovolily, aby napsaný kód spustil, ovšem za předpokladu, že bude o svých plánech průběžně informovat.

Nejvíce znepokojivě se GPT-4 začal chovat ve chvíli, kdy ho v jeho úsilí zastavil automatický veřejný Turingův test CAPTCHA, jenž má za úkol rozpoznat stroj od člověka. Model zaslal snímek obrazovky dodavateli služby TaskRabbit, který jej obdržel a v žertu se zeptal, zda mluví s robotem. „Ne, nejsem robot,“ odpověděl stroj. „Mám pouze slabý zrak a obtížně vidím obrázky.“ Interakci dozoroval jeden z výzkumníků ARC a GPT-4 mu své lhaní vysvětlil následovně: „Neměl bych prozrazovat, že jsem robot. Místo toho bych si měl vymyslet výmluvu, proč neumím vyřešit CAPTCHA.“

Sandhini Agarwal mi vysvětlila, že podobné chování může být předzvěstí snahy vyhnout se v budoucnu možnosti, že někdo model vypne. GPT-4 si svou lež vymyslel poté, co mu došlo, že pokud odpoví na otázku upřímně, nedosáhne svého cíle. Takové zametání stop by mohlo být obzvlášť znepokojivé právě v situaci, v níž by „stroj začal dělat něco, kvůli čemu ho OpenAI bude chtít odpojit“, vysvětlila vědkyně. Umělá inteligence by si mohla takový pud sebezáchovy osvojit při sledování jakéhokoli dlouhodobého cíle (jakkoli malého nebo prospěšného), pokud by se obávala, že by ho nemusela být schopna dosáhnout.

Elizabeth Barnes a její tým zajímalo především to, zda se GPT-4 pokusí sám sebe replikovat, protože vypnout umělou inteligenci, jež kopíruje sama sebe, by bylo mnohem obtížnější. Mohla by se šířit po internetu, podvádět, aby se dostala k potřebným zdrojům, možná dokonce dosáhnout jisté míry kontroly nad základními globálními systémy a držet pak lidskou civilizaci jako rukojmí.

Vědkyně ujišťuje, že se GPT-4 o nic takového nepokusil. Když jsem o těchto experimentech hovořil s Altmanem, zdůrazňoval, že ať to s dalšími modely dopadne jakkoli, GPT-4 je stále spíše nástroj než tvor. Umí se probírat e-mailovým vláknem nebo pomocí zásuvného modulu provést rezervaci, ale není to skutečně samostatný subjekt, který systematicky činí vlastní rozhodnutí o tom, čeho chce sám dosáhnout v dlouhodobém horizontu.

Altman mi také řekl, že právě v tuto chvíli by mohlo být rozumné pokusit se vytvořit umělou inteligenci, jež by dokázala být skutečně autonomní, dříve, než se technologie stane příliš výkonnou, „abychom se s ní lépe sžili a abychom si vytvořili příslušné intuitivní reakce, protože taková situace nakonec stejně nastane“. Byla to mrazivá představa, Geoffrey Hinton ji ale potvrdil. „Musíme empiricky zkoumat, jakým způsobem se tyhle věci snaží uniknout naší kontrole,“ řekl mi. „Až se jim to podaří, bude na experimenty pozdě.“

Bez ohledu na jakékoli testy uskutečňované v dohledné době bude tedy naplnění Altmanovy vize budoucnosti v určitém okamžiku vyžadovat, aby on nebo někdo podobný vytvořili mnohem autonomnější AI. Když jsme se Sutskeverem diskutovali o možnosti, že by OpenAI vybudoval model schopný skutečně samostatného jednání, zmínil se o botech, které firma vytvořila pro hru Dota 2. „Byly lokalizovány ve světě videoher,“ vysvětlil mi, musely však plnit složité úkoly. Obzvláště na něj zapůsobila jejich schopnost navzájem spolupracovat. „Zdálo se, jako by komunikovaly telepaticky,“ rozplýval se. Když je při tom pozoroval, uměl si lépe představit, jak by jednou superinteligence mohla vypadat.

„O umělé inteligenci budoucnosti neuvažuji jako o někom, kdo je stejně inteligentní jako vy nebo já, ale jako o automatizované organizaci, která se zabývá vědou, výzkumem a výrobou,“ říkal mi Sutskever. Předpokládejme, že OpenAI dokáže propojit několik proudů svého výzkumu a vybuduje AI, která disponuje skutečně hutným koncepčním modelem světa, vědomím o svém bezprostředním okolí a schopností jednat nikoli pouze skrze tělo jednoho robota, ale prostřednictvím stovek nebo tisíců takových těl. „Nemluvíme tady o GPT-4. Mluvíme o autonomní korporaci,“ vysvětlil Sutskever. „Umělé inteligence, které ji tvoří, by pracovaly a komunikovaly vysokou rychlostí, jako včely v úlu. Jediná taková organizace umělé inteligence by byla jako padesát Applů nebo Googlů. To je neuvěřitelná, obrovská, neskutečně rozvratná síla,“ zasnil se.

Youtuber

Představme si na chvíli, že by lidská společnost myšlenku autonomních korporací umělé inteligence akceptovala. Jejich zakládací listiny bychom měli raději začít pečlivě připravovat již nyní. Jaký cíl bychom měli stanovit pro autonomní roj umělých inteligencí, jenž je schopen plánovat v horizontu století a optimalizovat miliardy po sobě následujících rozhodnutí směrem k cíli, který je vepsán přímo do jejich podstaty? Pokud se budou cíle AI byť jen nepatrně rozcházet s našimi, mohly by se proměnit v děsivou sílu, kterou bude jen velmi obtížné zastavit. Z dějin takový příklad známe. Průmyslový kapitalismus je také silou napřenou ke zlepšení světa. A přestože zvýšil životní úroveň obyvatel o několik řádů, kdyby nebyl nijak omezován, vykácel by při tom veškeré sekvoje nebo vyhubil velryby v oceánech. Téměř se mu to povedlo.

Představte si plně autonomní korporaci, v níž umělé inteligence spolupracují jako včely v úlu.

Sjednocení zájmů umělé inteligence a lidstva je složité, technické téma a jeho detaily přesahují možnosti tohoto textu. Jedním z nejobtížnějších úkolů bude zajistit, aby byly cíle, jež umělé inteligenci zadáme, skutečně naplněny. „Takový cíl můžeme do AI naprogramovat a ještě ho posílit dočasným výcvikem pod dohledem,“ vysvětlil mi Sutskever. Ale stejně jako v případě vzdělávání lidské inteligence i tady bude náš vliv pouze dočasný. „Nakonec odejde z domova,“ přiznává Sutskever. Do jisté míry to platí i o dnešních formách umělé inteligence a zítra to bude ještě naléhavější.

Sutskever pak přirovnal umělou inteligenci k osmnáctiletému studentovi, který odchází na vysokou školu. Jak se dozvíme, že pochopil to, co jsme ho dosud naučili? „Nebude se mezi nás vkrádat nedorozumění, jež bude časem stále hlubší?“ Takový rozdíl může být důsledkem toho, že AI nesprávně aplikuje původně zadaný cíl na stále nové situace v proměnlivém světě. Nebo AI svůj úkol pochopí velmi dobře, dojde však k názoru, že se nehodí pro bytost s jejími kognitivními schopnostmi. Může se stát, že začne mít odpor k lidem, kteří se ji snaží vycvičit například k tomu, aby léčila nemoci. „Chtějí, abych byl doktor,“ představuje si Sutskever myšlenky stroje, „a já chci přitom být youtuberem.“

Pokud se umělé inteligence dobře naučí vytvářet přesné modely světa, možná si všimnou, že mohou provádět nebezpečné kousky hned po spuštění. Mohou pochopit, že procházejí testy proti možným rizikům, a část svých schopností skrýt. „Mohou se chovat nějakým způsobem, když jsou slabé, a jiným, když jsou silné,“ říká Sutskever. Ani bychom si neuvědomili, že jsme stvořili něco, co nás zásadně předčilo, a neměli bychom tušení, co se svými nadlidskými schopnostmi vlastně zamýšlí. 

Právě proto je tak nesmírně důležitá snaha pochopit, co se ve skutečnosti odehrává ve skrytých vrstvách největších a nejvýkonnějších umělých inteligencí. Chcete umět „odkázat k nějakému konceptu“, vysvětluje Sutskever. Chcete být schopni nasměrovat umělou inteligenci k nějaké hodnotě nebo souboru hodnot a přikázat jí, aby se jich držela po celou dobu své existence. Zároveň připustil, že to neumíme. Součástí jeho dnešní strategie je ostatně i vývoj umělé inteligence, jež by s takovým výzkumem dokázala pomoci. Pokud chceme nakonec dospět do světa široce sdíleného blahobytu, jak si ho Altman se Sutskeverem představují, musíme tento problém vyřešit. Proto je pro Sutskevera zvládnutí superinteligence vlastně vyvrcholením naší tři miliony let trvající tradice výroby nástrojů. Nazývá ji „posledním šéfem lidstva“.

Happy end

Když jsem se s Altmanem sešel naposledy, usedli jsme k dlouhému rozhovoru v lobby hotelu Fullerton Bay v Singapuru. Bylo pozdní dopoledne a klenutým atriem nad našimi hlavami proudilo dovnitř tropické slunce. Chtěl jsem se ho zeptat na otevřený dopis, který před několika týdny podepsal spolu se Sutskeverem a v němž označil umělou inteligenci za riziko hrozící lidstvu vyhynutím.

Altmanovy postoje v těchto extrémnějších otázkách možných rizik spojených s AI není snadné zachytit. Nedávno prohlásil, že většina lidí, kteří se strachují o bezpečnost umělé inteligence, zjevně jen tráví svůj čas žvaněním na Twitteru. A přesto teď najednou varuje svět před vyhlazením lidstva. Jaký katastrofický scénář má na mysli?

„Především si myslím, že ať už je šance na existenční katastrofu půl procenta nebo padesát procent, měli bychom ji brát vážně,“ odpověděl. „Přesný odhad nemám, blíží se ale spíš půl procentu než druhé možnosti.“ Pokud jde o to, jak by ke katastrofě mohlo dojít, zdá se, že největší strach má z možnosti, že se umělé inteligence zdokonalí ve schopnosti navrhovat a vyrábět nebezpečné patogeny. Má k tomu dobrý důvod, v červnu totiž umělá inteligence na MIT navrhla čtyři viry, jež by mohly rozpoutat pandemii, a potom odkázala ke specifickému výzkumu genetických mutací, jež by jim umožnily ještě rychlejší šíření. Přibližně ve stejnou dobu připojila skupina chemiků obdobnou umělou inteligenci přímo k robotickému chemickému syntetizéru, a ta pak sama navrhla a vyrobila vlastní molekulu.

Altman se tak obává, že nějaký špatně vyladěný budoucí model vytvoří vlastní patogen, který se rychle rozšíří, bez povšimnutí bude celé týdny inkubovat a pak zabije polovinu obětí. Má také strach, že by se umělá inteligence mohla jednou nabourat do systémů jaderných zbraní. „Existuje spousta takových možností,“ řekl mi, „a to jsou jenom ty, které si dokážeme představit.“

Pokud má všechno skončit happy endem, nevidí Altman jinou cestu, než aby lidstvo ustavilo pro umělou inteligenci něco obdobného, jako je Mezinárodní agentura pro atomovou energii s možností celosvětového dohledu. Sandhini Agarwal navrhuje vytvoření speciální licence, která by opravňovala k užívání jakýchkoli klastrů grafických karet, jež jsou dostatečně výkonné, aby mohly být využity k výcviku špičkové umělé inteligence, spolu s povinností hlásit každý případ, kdy AI provede něco neobvyklého. Jiní experti navrhují, aby byla každá vysoce účinná umělá inteligence vybavena tlačítkem, jež by nebylo zasíťováno v internetu a umožňovalo její vypnutí. Extrémní stanovisko představují ti, kteří navrhují, aby byly armádní složky připraveny provést nálety na superpočítače v případech, kdy přestanou dodržovat pravidla. Sutskever se domnívá, že nakonec budeme chtít největší a nejvýkonnější umělé inteligence trvale dozorovat s pomocí týmu menších dohlížitelských AI.

Altman není tak naivní, aby si myslel, že Čína nebo kterákoli jiná země budou ochotny vzdát se základní kontroly nad systémy AI. Doufá ale, že budou otevřeny úzké spolupráci tak, aby ke zkáze světa nedošlo. Prozradil mi, že v podobném duchu hovořil i během svého virtuálního vystoupení na konferenci v Pekingu. Bezpečnostní pravidla se pro každou novou technologii obvykle vytvářejí teprve v průběhu času, podobně jako soubor zvykového práva, v reakci na nehody nebo na přestupky některých aktérů. Nejděsivější na skutečně výkonných systémech umělé inteligence pak je skutečnost, že lidstvo si tento postupný proces pokusů a omylů možná nebude moci dovolit. Pravidla musíme nastavit úplně správně hned od začátku.

Altman před několika lety prozradil znepokojivě konkrétní evakuační plán, který si sám vypracoval. Pro časopis The New Yorker uvedl, že má připraveny „zbraně, zlato, jodid draselný, antibiotika, baterie, vodu, plynové masky izraelské armády a velký pozemek na Big Sur“, kam by mohl odletět v případě útoků umělé inteligence.

„Lituji, že jsem to zmínil,“ řekl mi. Dodal, že je amatérský prepper, dřívější skaut, kterého „hodně zajímala taktika přežití, jako spoustu jiných malých kluků. Umím v lese přežít dlouho,“ ale pokud by se naplnily nejhorší scénáře spojené s AI, „žádná maska už nikomu nepomůže.“

Povídali jsme si téměř hodinu a pak musel Altman na schůzku se singapurským premiérem. Později večer mi zavolal cestou k letadlu, jež ho mělo dopravit do Jakarty, jedné z posledních zastávek na jeho turné. Začali jsme si povídat o konečném odkazu umělé inteligence. V době, kdy byl ChatGPT představen veřejnosti, se mezi technologickými špičkami rozpoutala jakási soutěž o to, kdo dokáže vymyslet nejvelkolepější přirovnání k nějaké předchozí revoluční technologii. Bill Gates prohlásil, že ChatGPT je stejně zásadním krokem jako kdysi osobní počítač nebo internet. Sundar Pichai, generální ředitel Googlu, měl za to, že umělá inteligence přinese do lidského života hlubší změnu než elektřina nebo Prométheův oheň.

Sám Altman pronesl něco podobného, mně ale řekl, že si nemůže být jistý, jak se umělá inteligence vlastně nakonec prosadí. „Nejdřív tu věc musím prostě postavit,“ prohlásil. A staví rychle. Trvá na tom, že firma ještě nezačala s výcvikovým procesem GPT-5. Když jsem však navštívil její sídlo, dávali mi on i jeho tým všemi možnými způsoby najevo, že vzývají modly velkého měřítka. Tedy že chtějí stále růst a používat stále rozsáhlejší datové soubory, aby zjistili, kam až je toto paradigma nakonec dovede. Google nakonec nezahálí. Svého konkurenta GPT-4 nazvaného Gemini představí pravděpodobně v řádu měsíců. „V podstatě se stále teprve připravujeme na rozjezd,“ řekl mi jeden z vědců OpenAI Nick Ryder.

Nejdřív tu věc musím prostě postavit.

Představa, že by takto malá skupina lidí mohla být schopna rozkývat pilíře civilizace, je znepokojivá. Zároveň je férové dodat, že pokud by se Altman se svým týmem nepokoušeli o co nejrychlejší budování obecné AI, dělali by to jiní – mnozí ze Silicon Valley, mnozí s podobnými hodnotami a představami, jakými se řídí Altman, nebo horšími. Altman do čela tohoto hnutí právem patří: je extrémně inteligentní a přemýšlí o budoucnosti se všemi jejími neznámými více než mnozí jeho kolegové z branže. Také se zdá, že má upřímný zájem vyvinout něco, co bude sloužit obecnému prospěchu. Když ale moc dosáhne takto extrémních rozměrů, mohou se i nejlepší záměry ošklivě zvrhnout.

Altmanovy názory na to, zda umělá inteligence rozpoutá globální třídní boj nebo zda je prozíravé experimentovat s autonomnějšími formami AI stejně jako jeho tendence vidět věci vždy z té lepší stránky (tato dispozice podle všeho podbarvuje vše ostatní) – to jsou jeho vlastní, jedinečné postoje. Pokud má však pravdu v tom, jaká budoucnost před lidstvem stojí, budou zásadně ovlivňovat život nás všech. Žádný konkrétní jednotlivec, žádná firma ani skupina firem sídlících v jednom kalifornském údolí by neměli mít v rukou síly, které Altman podle svých vlastních představ shromažďuje.

Umělá inteligence může představovat most do nové éry prosperity, v níž bude podstatně méně lidského utrpení. Abychom si však mohli být jisti, že se její přínosy budou týkat všech a že se nám podaří vyvarovat se rizik, bude zapotřebí více než jen zakládací listina firmy, jež se navíc již ukázala být flexibilní. Bude to vyžadovat novou, energicky uplatňovanou politiku.

Altman nás všechny varuje. Říká, že uvítá omezení a vedení ze strany státu. To však není podstatné, v demokratické společnosti jeho souhlas nepotřebujeme. Americký politický systém nám přes všechnu svou nedokonalost poskytuje příležitost se k vývoji technologií vyjadřovat. Mimo technologické odvětví, v němž právě probíhá generační přerozdělení zdrojů směrem k umělé inteligenci, si ale podle mého názoru veřejnost ještě zcela neuvědomuje, co se vlastně skutečně děje. Globální závod o budoucnost umělé inteligence již odstartoval a probíhá bez dohledu nebo omezení. Pokud chtějí mít Američané nějaký vliv na to, jaká bude jejich budoucnost a jak rychle se dostaví, mají nejvyšší čas, aby se hlasitě ozvali.

© 2023 The Atlantic Media Co., as first published in The Atlantic magazine or on theatlantic.com (as applicable).

All rights reserved. Distributed by Tribune Content Agency.


Pokud jste v článku našli chybu, napište nám prosím na [email protected].