AI - Umělá inteligence

Vývojáři AI nejsou schopni dohlédnout důsledků, míní Janiš

Vývojáři AI (umělé inteligence) podle Víta Janiše z brněnské Mendelovy univerzity nejsou schopni dohlédnout důsledků, které jejich výtvor pro lidstvo představuje. Janiš je jedním z vědců, kteří v prohlášení volají po nejméně půlročním pozastavení vývoje nových modelů s ohledem na „hluboká rizika pro společnost a lidstvo“. Janiš se umělou inteligencí zabývá asi 20 let.

Vít Janiš uvedl, že čím více toho ví, tím větší má obavy z toho, co nastane, jakmile umělá inteligence dosáhne takzvané fáze singularity. Jde o bod zlomu, kdy začne nekontrolovatelný a nevratný technologický růst a lidská společnost se začne nenávratně měnit působením technologie. Podle Janiše neexistuje žádný racionální důvod, proč by tohoto milníku nemělo být dosaženo. Otázkou podle něj není jestli, ale kdy.

„Obávám se, že vývojáři AI nejsou schopni dohlédnout důsledků, které jejich výtvor pro lidstvo představuje. Nejde totiž o otázku technickou, nýbrž filozofickou a legislativní,“ uvedl Janiš. Podle něj ve chvíli, kdy umělá inteligence dosáhne singularity, ztratí lidstvo nad jejím dalším vývojem jakoukoliv kontrolu. Její schopnosti poté podle něj porostou exponenciálním tempem a nebude v lidských silách tento vývoj ani pochopit, natož jej nějakým způsobem moderovat.

„Vytvoříme si jakéhosi boha. Představa, že tohoto boha dokážeme kontejnerizovat a udržet v bezpečí sandboxu, je v nejlepším případě naivní, stejně jako představa, že nám tento bůh potom bude sloužit. On. Nám,“ uvedl Janiš.

Naivní a nic neřešící výzva

Janiš dále sdělil, že výzvu podepsal, přestože je podle něj trošku naivní a z dlouhodobého hlediska nic neřeší. „Vnímám ji ale jako způsob, jak toto téma otevřít, protože s ohledem na to, jak dramatickým způsobem AI v nejbližších měsících a letech změní trh práce a celou společnost, je toto téma v médiích diskutované zcela nedostatečně a nemá takovou pozornost politické reprezentace, jakou si zaslouží,“ míní Janiš.

Uvedl, že jsme jako původní obyvatelé Nového světa, kteří poprvé spatřili karavely s Evropany. „Dívali se na ně se zaujetím a zvídavostí, ale stěží jim docházelo, co pro ně tato exotická návštěva v dlouhodobém horizontu bude znamenat. My oproti nim máme několik století náskok, známe historii a měli bychom být schopni se z ní poučit,“ uvedl Janiš.

Musk a spol. chtějí kvůli vážným rizikům pauzu ve vývoji AI

Stovky akademiků, expertů a podnikatelů zapojených do vývoje umělé inteligence (AI) včetně miliardáře Elona Muska v novém prohlášení volají po nejméně půlročním pozastavení vývoje nových modelů s ohledem na „hluboká rizika pro společnost a lidstvo“. Navrhují, aby vývojáři AI tuto pauzu využili ke společné práci na bezpečnostních pravidlech a také k vystupňování spolupráce se zákonodárci na silné regulaci odvětví.

Výzva k okamžitému přerušení vývoje se vztahuje na „trénink systémů AI silnějších než GPT-4“, což je nová generace textového modelu, kterou tento měsíc představila společnost OpenAI. „Toto přerušení by mělo být veřejné a ověřitelné… Nelze-li jej učinit rychle, měly by zakročit vlády a ustanovit moratorium,“ uvádějí signatáři petice publikované neziskovou organizací Future of Life Institute. Kromě Muska, který patří mezi sponzory OpenAI, jsou mezi nimi spoluzakladatel firmy Apple Steve Wozniak, šéf společnosti Stability AI Emad Mostaque, filozof Yuval Noah Harari či profesoři ze severoamerických i jiných univerzit.

Apel přichází po měsících překotného vývoje v oboru takzvané generativní umělé inteligence, což je označení pro modely „vycvičené“ na obrovském množství dat, které vytvářejí originální výstupy na základě identifikovaných vzorců. Mohou při tom generovat nejen texty, ale i obrázky či zvukové stopy připomínající hlasy skutečných lidí. Vývoj vyvolává obavy mimo jiné ze záplavy dezinformací a podvodů založených na autenticky vypadajících vizuálních a zvukových materiálech.

I sám ředitel OpenAI má obavy

I ředitel OpenAI Sam Altman v nedávném rozhovoru přiznal, že se „trošku bojí“. „Musíme tady být opatrní,“ řekl televizi ABC News u příležitosti uvedení GPT-4. Také ovšem vyjádřil názor, že umělá inteligence může být „nejlepší technologií, jakou dosud lidstvo vyvinulo“. Altman podle informací agentury Reuters nebyl mezi více než 1000 signatářů nové výzvy.

Výzva hned v úvodu varuje před závažnými riziky spojenými s umělou inteligencí, „jak ukazuje výzkum a uznaly přední laboratoře AI“. „Laboratoře a nezávislí experti by měli využít toto přerušení (vývoje), aby společně vyvinuli a implementovali sadu sdílených bezpečnostních protokolů pro design a rozvoj pokročilé AI… Souběžně musejí vývojáři AI pracovat se zákonodárci na dramatickém urychlení rozvoje robustních systémů regulace AI,“ píše se v prohlášení.

Poslední měsíce podle autorů přinášejí mezi vývojáři AI závod, který se vymkl kontrole. Jak připomíná Reuters, průlom nastal v loňském roce, když společnost OpenAI zpřístupnila aplikaci ChatGPT. To přimělo konkurenční podniky k urychlení vývoje podobných modelů a další firmy ke snaze zapracovat generativní umělou inteligenci do svých produktů. Snahy o regulaci těchto technologií jsou mezitím v počátečních fázích.

„Silné systémy AI by měly být vyvinuty, až když budeme mít důvěru, že jejich dopady budou pozitivní a rizika zvladatelná,“ uvádí výzva podepsaná Muskem a dalšími. Současné systémy umělé inteligence označuje za srovnatelné s lidmi ve vykonávání jistých úkonů a nastoluje otázky ohledně možného „přechytračení“ lidí a „ztráty kontroly nad naší civilizací“.

Kritici tvrdí, že signatáři petice potenciál aktuálních technologií hrubě přehánějí, píše Reuters. „Takováto prohlášení mají za cíl vytvořit přehnaná očekávání. Má to v lidech vyvolat obavy,“ míní výzkumnice v oboru umělé inteligence Johanna Björklundová z univerzity ve švédském Umeaa. „Nemyslím si, že je potřeba tahat za ruční brzdu,“ dodala.

AN
Zdroje a obrázky: abc; agentury, pixabay


Uveřejněno

v

,

od

Komentáře

6 komentářů: „Vývojáři AI nejsou schopni dohlédnout důsledků, míní Janiš“

Napsat komentář

Vaše e-mailová adresa nebude zveřejněna. Vyžadované informace jsou označeny *

Tato stránka používá Akismet k omezení spamu. Podívejte se, jak vaše data z komentářů zpracováváme..