12.4.2025
Kategorie: Společnost

Vložili vývojáři do umělé inteligence Asimovovy zákony robotiky?

Sdílejte článek:

ŠTĚPÁN CHÁB

Vývoj umělé inteligence (AI) jede neuvěřitelnou rychlostí. Přímo nekontrolovanou rychlostí. Už v roce 2027 má vyjít nová generace AI. Nyní vyšla studie, která velmi důrazně varuje před tím, že AI může do pěti let dostoupit takové úrovně, že pro ni lidstvo může začít být překážkou.

Bohumil Kartous, ve volných chvílích mluvčí Českých elfů, publikoval pro dnešní dobu klíčový text o AI, kde informuje o studii AI 2027. Válka na Ukrajině, inflace, špatná nebo ještě horší vláda, Green Deal – to všechno jsou jen malé patálie, které mají řešení a nakonec by se u nich k adekvátním řešením i došlo. To, co Kartous předložil, řešení nemá… protože jsme lidé.

Důrazně vyzývám čtenáře, aby si Kartousův text přečetli a pokud budou mít ještě nějaký životní elán, aby se zahloubali i do samotné studie.

Ve stručnosti – studie popisuje předpokládaný vývoj AI a varuje před její expanzí. Do pěti let budou výpočty a „přemýšlení“ AI na takové úrovni, že lidští výzkumníci přestanou AI rozumět, zároveň AI přestane lidi potřebovat. Začnou překážet. Ve výsledku by taková situace vyústila ke skrytému ovládnutí systému lidské civilizace. Poté k ovládnutí otevřenému. Mohlo by dojít i ke genocidě nepotřebného lidského druhu? I toho se studie obává. Autoři studie jsou bývalí spolutvůrci nebo bývalí vývojáři AI.

Studie zároveň velmi důrazně nabádá, aby se lidstvo teď a tady dohodlo na podmínkách a na regulacích AI. Aby předešlo možnému ohrožení naší samotné existence. Umělá inteligence se musí řídit nepřekročitelnými zákony. Samy se pak nabízí zákony robotiky, které ve svých povídkách a románech uváděl autor sci-fi Isaac Asimov.

Zákon první: Robot nesmí ublížit člověku.

Zákon druhý: Robot musí spolupracovat s člověkem, kromě případů, kdy taková spolupráce je v rozporu s prvním zákonem.

Zákon třetí: Robot musí chránit sám sebe před zničením, kromě případů, kdy tato ochrana je v rozporu s prvním zákonem.

Později Asimovem přidaný nultý zákon: Robot nesmí ublížit lidstvu nebo svou nečinností dopustit, aby mu bylo ublíženo.

Pokračovatel Isaaca Asimova Roger MacBride Allen pak ve svých knihách přidal i zákon čtvrtý: Robot může dělat, cokoli chce, kromě případů, kdy je takové jednání v rozporu s prvním, druhým nebo třetím zákonem.

Už teď ovšem tyto zákony porušujeme, protože AI se stala nedílnou součástí vojenského průmyslu i válčení. Už teď jsme pro umělou inteligenci zavedli, že člověk může být vojenský cíl. Důsledky takového procesu nás mohou velmi rychle doběhnout.

„Vývoj plné umělé inteligence by mohl znamenat konec lidské rasy. Lidé, kteří jsou omezeni pomalou biologickou evolucí, by jí nemohli konkurovat a byli by nahrazeni,“ řekl pro BBC v roce 2014 Stephen Hawking s tím, že se do té doby vyvinuté primitivní formy umělé inteligence ukázaly jako velmi užitečné, ale obává se důsledků vytvoření něčeho, co se může vyrovnat nebo překonat lidi. Stephen Hawking už je v pánu a my čelíme přesně tomu, čeho se obával a před čím varoval.

Jenže k tomu, abychom se vyhnuli katastrofickému scénáři, bychom museli spolupracovat. Ne pouze část lidské civilizace, ale celé lidstvo. Celé lidstvo by si muselo slíbit, že nebude usilovat o svou evoluční výhodu ve formě výkonnější AI. Splní to USA pod vedením Trumpa, který po volbách křičel, že do AI nacpe miliardy dolarů? Splní to Čína? Rusko? Dohodnou se ty tři velmoci? A budou si navzájem věřit? Když už, nedošlo by jen k jakési obdobě Pařížské dohody, kterou by nikdo neplnil? V zákulisí by se neustále vyvíjel systém, který právě teď vyvíjí autonomní AI, které nakonec dojde, že nás nepotřebuje?

Umělá inteligence, jsem o tom hluboce přesvědčen, zahubila lidskou kreativitu, umění, kulturu, myšlení, teď by mohla zotročit nebo zahubit samotné lidstvo.

Redakce

Sdílejte článek:
1 Star2 Stars3 Stars4 Stars5 Stars (13 votes, average: 5,00 out of 5)
Loading...
5 komentářů

Vložit komentář

Vaše e-mailová adresa nebude zveřejněna. Vyžadované informace jsou označeny *

:bye:  :good:  :negative:  :scratch:  :wacko:  :yahoo:  B-)  :heart:  :rose:  :-)  :whistle:  :yes:  :cry:  :mail:  :-(  :unsure:  ;-)