Stovky technických expertů (a také Elon Musk) vyzývají k pozastavení a posouzení rizik na A.I. Rozvoj

  A.I. vytvořený koridor kódu v Matrixu

Když Elon Musk, spoluzakladatel Applu Steve Wozniak a více než 500 technologických expertů podepíší otevřený dopis vyzývající k okamžité pauze ve vývoji umělé inteligence (A.I.), víte, že problém je vážnější než případ sledování příliš velkého množství sci-fi. filmy. Zatímco A.I. převzetí světa je často odmítáno jako nepravděpodobná událost, která se odehrává pouze ve fikci, obavy vyjádřené v dopise téměř hraničily s takovou událostí. Nemusí to být nutně tak dramatické jako převzetí moci Ultronem nebo Skynetem, ale existují skutečné obavy, že A.I. vývoj může vyústit A.I. postupně nahrazovat lidi .

Zdálo se, že zvláště motivovalo k napsání a podepsání dopisu nedávný vývoj a brzké vydání OpenAI Multimodal Large Language Model (MLLM), GPT-4. MLLM je A.I. nástroj, který má schopnost interpretovat více režimů vstupu, jako je text, obrázky, videa a zvuk. Kromě toho může provádět zpracování přirozeného jazyka (NLP), což znamená, že rozumí a generuje jazyk podobným způsobem jako člověk. GPT-4 je k dispozici v omezené podobě s názvem ChatGPT Plus, která již existuje vyvolalo různé kontroverze .

poslední z nás Ellie a Riley

Kontroverze sahá od obav o studenty, kteří používají ChatGPT k podvádění, přes odhalení zaujatosti v ChatGPT až po škody vyplývající z poskytování nesprávných odpovědí ChatGPT na potenciál ChatGPT začít nahrazovat lidi v určitých profesích. Nyní, když OpenAI již pokračuje ve vývoji upgradu, GPT-5, tech odborníci bijí na poplach.

Techničtí experti (a Elon Musk) podepisují otevřený dopis, aby pozastavili a posoudili A.I. rozvoj

Otevřený dopis byl publikován prostřednictvím Future of Life Institute , nezisková organizace věnující se poskytování ochrany proti globálním katastrofám, včetně hypotetické hrozby A.I. Dopis získal v době psaní tohoto článku 1 324 podpisů, včetně stovek technologických odborníků a dokonce i samotného spoluzakladatele OpenAI, Muska. Nastínila skutečnost, že A.I. vývoj se stal stále více neregulovaným, s vydáním GPT-4 vytvořilo nebezpečnou A.I. závod. Dopis položil několik řečnických otázek, které zdůrazňovaly potenciální nebezpečí A.I. zní:

Současné systémy umělé inteligence se nyní stávají konkurenceschopnými pro lidi v obecných úkolech a my si musíme položit otázku: By měl necháme stroje zaplavit naše informační kanály propagandou a nepravdou? By měl automatizujeme všechny práce, včetně těch naplňujících? By měl vyvíjíme nelidské mysli, které by nás nakonec mohly převýšit, přechytračit, zastaraly a nahradit nás? By měl riskujeme ztrátu kontroly nad naší civilizací?

ona-ra restartovat catra

Dále bylo zdůrazněno, že vývoj výkonnější A.I. systémy by se neměly posouvat kupředu, dokud není jistota, že budou prospěšné a že „jejich rizika budou zvládnutelná“. Aby se tak stalo, dopis navrhoval šestiměsíční pauzu ve vývoji A.I. která je pokročilejší než GPT-4. Během pauzy dopis doporučoval implementaci bezpečnostních protokolů, regulačních orgánů, přísnější proces auditu a stanovení odpovědnosti za škody způsobené A.I.

Dopis zachytil přesvědčení zapálenějších skeptiků A.I. Někteří signatáři se domnívají, že i GPT-4 je již velmi nebezpečný a vykazuje známky umělé obecné inteligence, což je schopnost učit se a interpretovat svět způsobem, který se rovná lidským schopnostem. Méně opatrní skeptici však vyvrátil tuto myšlenku s tím, že GPT-4 se ani nepřibližuje lidské mysli. Takže zatímco mnoho kritiků A.I. souhlasí s potřebou regulace a uznání potenciálních rizik, někteří věří, že myšlenky uvedené v dopise jsou přehnané.

je stále aktivní

Nakonec se mnoho technických expertů sjednocuje v tom, že nebezpečí A.I. jsou tak významné, že vyžaduje okamžitou pauzu ve vývoji a reformě v tomto odvětví. Zbývá zjistit, zda A.I. laboratoře a nezávislé A.I. odborníci výzvu vyslyší, nebo pokud, jak dopis naznačoval, vláda dokonce zasáhne a pauzu vyvolá.

(doporučený obrázek: Warner Bros.)