Bezpecnost A Moznosti Zneuziti Ai

Naše webové stránky obsahují odkazy na partnerské weby. Pokud se prokliknete z našich stránek na stránky partnera a tam si zakoupíte jeho služby, obdržíme za zprostředkování provizi (Zjistit více informací). Tato forma spolupráce nijak neovlivňuje objektivnost našich recenzí. Každým nákupem přes proklik z našich stránek podpoříte naši redakci, abychom i do budoucna mohli tvořit kvalitní a užitečný obsah. Ďekujeme.

Důležité upozornění Všechny naše články píšou skuteční lidé. Nejsou to umělé texty od stroje.


WordPress Hero

Prozkoumali jsme bezpečnostní rizika a možnosti zneužití AI

Ani jsme se nenadáli a dva týdny po zpřístupnění verze GPT-4 se spojili různí techničtí odborníci a napsali otevřený dopis, ve kterém požadují, aby:

  • Všechny AI laboratoře zastavily alespoň na 6 měsíců trénink AI systémů silnějších než GPT-4. Tato pauza by měla být dobrovolná a veřejně ověřitelná. Jinak navrhují, aby vláda (USA) vyhlásila moratorium na vývoj AI.
  • AI laboratoře a nezávislí experti využili toto přerušení ke spolupráci při vývoji společných bezpečnostních protokolů pro pokročilé AI systémy.

Otevřený dopis podepsalo již více než 1300 odborníků, většinou jsou to šéfové technologických firem nebo univerzitní profesoři, mezi signatáři jsou Yoshua Bengio, Stuart Russel, Elon Musk, Steve Wozniak, Emad Mostaque, Craig Peters, Gary Marcus.

Otevřený dopis zmínili už i na zive.sk.

Zasavte Ai Elon Musk
Zdroj: Obrázek vygenerovaný pomocí AI Midjourney, Myšlenka Elona Muska z roku 2018:
„Procento inteligence, která není lidská, se zvyšuje. Nakonec budeme my lidé reprezentovat jen velmi malé procento inteligence.“

V článku v úvodu každé kapitoly naleznete stručné shrnutí označené ikonkou💡. Chcete-li se ponořit do hloubky a pochopit otázky týkající se bezpečnosti AI, jejího možného zneužití, a tak trochu i motivace, proč takový otevřený dopis vyzývající k zastavení vývoje pokročilé AI vznikl, naleznete v článku mnoho hodnotných odkazů na samostudium.

Záměrně vám klademe mnoho otázek, protože chceme, abyste se naučili chápat pojmy z oblasti umělé inteligence. Odteď už navždy bude nedílnou součástí našich životů, poslední verze systémů odborníci považují za průlomové.

Všeobecná umělá inteligence (AGI) a Super umělá inteligence (SAI)

💡Stručně a jasně: Momentálně dostupné AI modely, jako jsou GPT-3.5 a GPT-4, jsou pokročilé, ale stále se nepovažují za AGI nebo SAI. Zároveň samotní Open AI vývojáři hovoří o potřebě společného postupu při určování pravidel pro AGI a SAI, aby umělá inteligence zůstala pro člověka bezpečná. Pojem, který byste si měli ozřejmit: AI alignment.

Zkoušeli jste už prohodit pár vět s momentálně nejpokročilejší dostupnou umělou inteligencí ChatGPT od Open AI? Vyzkoušeli jste obě verze, GPT-3.5 a GPT-4? Vnímáte mezi nimi rozdíly? Jaký je váš dojem – mohlo by už jít o AGI nebo SAI? Víte, jak jsou definovány vyšší stupně umělé inteligence?

  • Všeobecná umělá inteligence (AGI) má schopnost naučit se a vykonávat jakoukoli intelektuální úlohu, kterou by mohl vykonávat člověk. AGI je schopna nezávislého učení, řešení problémů a tvorby.
  • Super umělá inteligence (SAI) má schopnost naučit se a vykonávat jakoukoli intelektuální úlohu, kterou by mohl vykonávat člověk a vytvářet nová řešení a myšlenky, kterých by lidská mysl nemohla dosáhnout.

Podívejte se také na záznam rozhovoru Lexa Fridmana se Samem Altmanem. Rozhovor vnikl minulý týden, verze GPT-4 již byla poskytnuta uživatelům, čili obsahuje nejčerstvější názory.

  • Lex Fridman je počítačový vědec z oblasti umělé inteligence na Massachusetts Institute of Technology. 
  • Sam Altman je CEO v Open AI. 

Přibližně ve 49. minutě rozhovoru Sam Altman uvedl, že systém, který není schopen překročit hranice současných vědeckých poznatků a objevit nové věci, nemůže být považován za superinteligentní. Dodal, že na vytvoření superinteligentního systému bude třeba rozšířit paradigma GPT o něco nového, avšak zatím nikdo nemá nápad jak. Vyplatí se podívat celý rozhovor, jelikož je tam probíráno vše o jazykovém modelu GPT, předsudcích v AI systémech, vlastnické struktuře Open AI a investorech, i o tom, proč si jako investora vybrali Microsoft, nebo o možném politickém tlaku na vývojáře umělé inteligence.

Přečtěte si také blog Sama Altmana o potřebě celospolečenského plánování nástupu AGI a SAI. Open AI byla dlouho nezisková organizace, ani spojením s Microsoftem jako investorem nedošlo k prodeji modelu Microsoftu. Lidé, kteří na vývoji jazykového modelu GPT pracují, mají zájem o to, aby umělá inteligence sloužila všem, v blogu jsou stručně definovány jejich krátkodobé a dlouhodobé cíle. A můžete se ponořit hlouběji a hlouběji, porozumět způsobu, jak jejich firma funguje, jak funguje proces vývoje. Aby byly modely bezpečnější a více sladěny s potřebami člověka, používá Open AI techniku RLHF – reinforcement learning from human feedback. V rozhovoru pro televizi ABC News Sam Altman varuje, že ne všechny firmy které vyvíjejí AI systémy budou mít ušlechtilé cíle.

Více o způsobu, jakým je systém GPT vyvíjen, vám řekne i rozhovor s Ilyem Sutskeverem, technickým ředitelem v Open AI. Mluví v něm i spojení s Microsoftem.

Přečtěte si blogový příspěvek Billa Gatese „The Age of AI má begun“, ve kterém označil jazykový model GPT za stejně průlomový vynález jako první grafické rozhraní, které navždy změnilo počítačový svět. AGI podle něj zatím neexistuje, ale umělá inteligence bude velmi rychle fundamentálním prvkem v našich životech stejně jako mikroprocesory, osobní počítače, internet a mobily. Zaměřil se na možnosti využití a rozvoje umělé inteligence pro jednotlivce, firmy, oblast zdraví a vyučování. Popsal také možná rizika a hrozby.

Zasavte Ai Bill Gates
Zdroj: Obrázek vygenerovaný pomocí AI Midjourney

Bill Gates už dříve odstoupil z rady ředitelů Microsoftu, více se věnuje své nadaci, ale stále má nejvyšší akciový podíl mezi individuálními vlastníky (odhaduje se 1,34%). Do firmy Open AI Microsoft kapitálově vstoupil v roce 2019 a v lednu 2023 znovu potvrdil několika miliardový investiční balíček pro Open AI.

Rozumí AI lidskému myšlení? Teorie mysli

💡Stručně a jasně: Ve verzi jazykového modelu GPT-4 se podle studie jako vedlejší produkt zdokonalování jazykového modelu objevila Teorie mysli.

Teorie mysli (Theory of Mind) je koncept velmi dobře známý v oblasti vývojové a kognitivní psychologie. Teorie mysli označuje schopnost jednotlivce rozpoznat mentální stavy, pohnutky a touhy sebe a jiných lidí. Je velmi důležitá pro rozvoj sociálních dovedností a empatie. Objevuje se u dětí přibližně v předškolním věku. Člověk se vyvíjí neustále a také v dospělosti často řeší různé sociálně složité situace, kde musí zohledňovat myšlenky, city, pocity či pohnutky jiných lidí. Přečtěte si více v práci Vývoj teorie mysli u dětí a adolescentů, kde najdete základní definice i různé typy testů, které pomáhají zjistit rozvinutost Teorie mysli u dětí a adolescentů.

Jakou nejtěžší otázku či úlohu byste zadali ChatGPT? V našem článku Na co všechno se můžete umělé inteligence ChatGPT zeptat? jsme testovali verzi GPT-3.5. Dnes, po pár měsících od jejího publikování, je již dostupná pro platící uživatele také verze GPT-4. Rozdíl je markantní. Ilustrují ho například následující dva obrázky:

Zasavte Ai 223
Zdroj: GPT-3.5
Zasavte Ai 222
Zdroj: GPT-4

Verze jazykového modelu GPT-3.5 si se zadaným úkolem neporadila, zatímco verze GPT-4 zadanou úlohu zvládla na výbornou! Zadaný úkol je „speciálně zkonstruován“, pracuje s myšlenkami a pohnutkami lidí, AI systém pro určení správné odpovědi musí tyto myšlenky a pohnutky správně vyhodnotit.

Úlohu jsme zadali chatu po přečtení článku v New York Times, podle kterého se někteří vědci domnívají, že u verze GPT-4 se vyvinula Teorie mysli. Podrobnosti experimentů a závěr vědců si přečtěte studii zmíněné v článku Theory of Mind May Spontaneously Emerged in Large Language Models, je volně dostupná.

Ve studii testovali všechny verze GPT na přítomnost Teorie mysli. Model GPT-4 obstál ve dvou druzích testů na 100 a 95 procent. Studie naznačuje, že schopnost podobná teorii mysli (dosud považována za výlučně lidskou) se mohla spontánně vyvinout jako vedlejší produkt zlepšování jazykových schopností jazykových modelů.

ChatGPT si uchovává konverzace, můžete se do započaté konverzace kdykoli vrátit. Při našem testování jsme měli dojem, že pokud je konverzace delší, chat odpovídá na otázky přesněji. Jako by se na dané téma přesněji vyladil. (Například v uvedené studii při testování a zadávání nové testové otázky konverzaci vždy restartovali.)

Začali jsme definováním pojmů z této oblasti, poté testováním příkladů. Pokračovali jsme dotazováním se na testy Teorie mysli pro neurotypické děti a autistické děti, u kterých může Teorie mysli chybět.

Nakonec jsme zformulovali úlohu o babičce a jejím prstýnku. Na závěr naší konverzace s chatem na téma Teorie mysli jsme položili následující otázky, odpovědi chatu jsou znovu velmi přesvědčivé:

Zasavte Ai 06
Zdroj: GPT-4
Zasavte Ai 006
Zdroj: GPT-4

A vy si jen tak sedíte na židli před monitorem a říkáte si: „Je to jen text?“

Myslí AI jako člověk? Antropomorfizace AI

💡Stručně a jasně: Lidé mají sklon připisovat lidské vlastnosti a chování jiným tvorům i neživým věcem. Je to dáno naším sklonem hledat srozumitelné a podobné vzory ve světě kolem nás. Jaká bude SAI? Bude lidská?

Simpanz
Zdroj: Obrázek vygenerovaný AI Midjourney

Máte psa nebo jiného domácího mazlíčka? Potom vám nemusíme vysvětlovat, co to je antropomorfizace. Určitě vás někdy napadlo, jestli je váš pes šťastný, smutný či dokonce rozzlobený. Nebo jste uvažovali, nad čím přemýšlí.

Právě proto, že ChatGPT používá chat a jeho jazyková úroveň se vyrovná lidské řeči, v některých chvílích máte pocit, že komunikujete s člověkem. Chat se chová empaticky, se zájmem o vás, dokonce někteří vědci se domnívají, že má Teorii mysli, jak to naznačila předchozí kapitola. Můžete nabýt dojmu, že AI systém má vlastní emoce, myšlenky, že jedná se záměrem, že je vaším přítelem.

Přečtěte si náš článek o AI inženýrovi Googlu, který měl pocit, že systém LaMDA má vlastní vědomí a city.

Další články na toto téma: AI isn’t close to becoming sentient – the real danger lies in how easily we’re prone to anthropomorphize it nebo ChatGPT Is a Blurry JPEG of the Web.

Antropomorfický postoj může vést ke ztrátě ostražitosti při dalším vývoji umělé inteligence. Jak jsme iv předchozí podkapitole ukázali, umělá inteligence dokáže napodobit jazyk člověka a dokáže i napodobit Teorii mysli. To ovšem neimplikuje, že jazyk či Teorii mysli chápe a používá stejným způsobem jako člověk. ChatGPT má asi 175 miliard parametrů, a co je v nich přesně uloženo a jak je při tvorbě odpovědí využívá, to ví jen ChatGPT.

Umělá inteligence: Předsudky a jejich řešení

💡Stručně a jasně: Lidská společnost je názorově velmi rozmanitá. Navrhnout spravedlivý AI systém, AI systém bez předsudků, je hluboký etický až filozofický problém. Proto je třeba, aby se dohodly a určily pravidla pro vývoj AI systémů společné a přijatelné pro všechny lidi, celou lidskou společnost.

Řešení předsudků v AI systémech je důležité, protože mohou vést k diskriminaci jednotlivců nebo skupiny lidí. Podle národnosti, náboženství, pohlaví. Předsudky mohou ovlivnit hodnocení a zacházení s lidmi v jakékoli názorové bublině. Stačí, když si vzpomenete na nejrůznější diskuse plné sporů na sociálních sítích.

Jsi matka, která kojí? Jsi matka, která nosí své dítě v nosítku? Je přerušení těhotenství právem ženy? Proč je módní štíhlost? Proč nosíš barefoot? Jsi vegetarián? Podporuješ rovnost pohlaví? Koho budeš volit? Covid pandemie? Válka na Ukrajině? Sami cítíte, že na tyto otázky se neodpovídá vždy snadno, nezaujatě, a už vůbec ne stejně v celé lidské společnosti. Jaké názory má AI systém upřednostňovat? Chtěli byste být v roli programátora či testera, který má navrhnout nezaujaté řešení?

Roboty
Zdroj: Obrázek vygenerovaný AI Midjourney

Jak dosáhnout toho, aby byla umělá inteligence spravedlivá, nezávislá, korektní? Která strana má pravdu a co je to vlastně pravda? Předsudky v AI by mohly posílit stávající společenské nerovnosti a ovlivnit důležité oblasti, jako jsou zaměstnání, vzdělávání, zdravotnictví či právní systémy na celém světě.

Je několik kategorizací AI předsudků (AI bias), nejzákladnější rozděluje předsudky následovně: 

  • Předsudky v datech: Tréninková data jsou připravována lidmi. Může se stát, že z dat nejsou odstraněny předsudky. Nebo osoba, která chystá data, má předsudky, na jejichž základě třídí tréninková data. Není-li dostatek dat ze všech názorových skupin, ovlivní to výsledný model.
  • Předsudky v algoritmech: Nesprávně nastavený algoritmus může zvýhodňovat některý názor, skupinu a podobně. Může to být záměr vývojáře, který algoritmus přizpůsobí svým předsudkům, nebo nesprávně navržený odměňovací systém v učícím modelu.

Umělá inteligence: Kybernetické hrozby

💡Stručně a jasně: Hovoříme-li o bezpečnostních hrozbách v souvislosti s AI, mohli bychom je kategorizovat na kybernetické útoky na AI systémy a kybernetické útoky využívající AI.

V čem jsou slabé stránky AI systémů z pohledu bezpečnosti?

  • Zranitelnost AI systémů: Zatím neexistují pravidla pro bezpečnost AI systémů.
  • Regulace AI systémů: Zatím není ustálena žádná legislativa v oblasti AI.
  • Transparentnost a vysvětlitelnost AI: Jelikož AI systémy využívají strojní učení, ani vývojáři neumějí dopředu určit, jak strojní učení nad určitou množinou dat dopadne a co budou jeho vedlejší výsledky. Až zpětně, když AI systém přečetl a utřídil si všechna data, následuje fáze testování, vyhodnocování a přizpůsobování systému potřebám člověka. (Například verze GPT-4 dokončila učení v srpnu 2022 a byla zpřístupněna v březnu 2023, to znamená, že byla testována přibližně 7 měsíců, jak zmínil Sam Altman v rozhovoru s Lexem Fridmanem, viz video výše.)
  • Halucinování AI: Občas AI poskytne odpověď, která je nesprávná. Vzniká buď nepřesnostmi v tréninkových datech, nebo nesprávným vyhodnocením vstupů. Zatím se halucinace pouze zpětně přezkoumávají a systémy se vylepšují, avšak nelze jim zcela zabránit.
Bezpecnost
Zdroj: Obrázek vygenerovaný AI Midjourney

Jak by mohla být AI zneužita pro kybernetické útoky?

  • Zneužití osobních údajů: AI může pomoci při zjišťování a zpracování velkého množství osobních údajů. Zároveň může být použita k neoprávněnému přístupu k těmto údajům a jejich zneužití ke spamu, telemarketingu, podvodnému vylákání peněz a podobně. Možnost zneužití telemetrických údajů při autentifikaci.
  • Deepfake audio a video, falešné obrázky: AI vygenerovaný obsah může být zneužit ke škodlivým účelům, jako například podvody, šíření dezinformací, vytvoření si falešné identity nebo vydírání. Od falešných paparazzi záběrů známých osobností po falešné zprávy radikalizovaných či teroristických skupin.
  • Manipulace s informacemi: Pokud by na trénink AI byla poskytnuta zmanipulovaná data, AI může být zneužita k manipulaci s informacemi, poskytovat zavádějící odpovědi.
  • Bezpečnostní hrozby v oblasti autonomních vozidel a robotiky: Možnost zneužití vzdáleného či autonomního ovládání vozidel a jiných zařízení jako zbraní.
  • Vznik SAI: Vznik umělé inteligence s vlastním myšlením a cíli, které nemusí být ve shodě s lidskými.

Existuje návod, jak vytvořit důvěryhodnou AI?

💡Stručně a jasně: EU připravuje AI Act. Příručka The TAILOR Handbook of Trustworthy AI obsahuje přehled pojmů z oblasti důvěryhodné AI i o potenciálních hrozbách v oblasti AI. Na její přípravě se podílel i slovenský tým v rámci projektu EU.

Je legislativa ten správný bič pro regulaci v oblasti AI? Kdo tvoří legislativu a nakolik je všemi aktéry, kterých se týká, dodržována? Dokáží se spojit vývojáři a veřejná správa a urychleně, nebyrokraticky situaci řešit? Ve všech zemích?

Existuje několik seskupení, která se těmito otázkami zabývají, a určitě se další zformulují i ​​na základě iniciativy a výzvy z úvodu článku. My jsme se zaměřili na rýsující se legislativu Evropské unie.

  • První definice důvěryhodné AI byly popsány expertní skupinou Evropské komise v dokumentu Ethical Guidelines for Trustworthy AI z roku 2019.
  • V roce 2020 Evropská komise vydala dokument White Paper on AI, který definoval základní vlastnosti důvěryhodné AI.
  • Staly se základem pro návrh Nařízení Evropské komise označovaného jako AI Act, které by jako první regulovalo použití umělé inteligence a definovalo rizikové aplikace, ve kterých je třeba sledovat využití umělé inteligence.

Nejásejme však zatím, že chystaná legislativa nás spasí. Mnohokrát je jednání EU institucí pomalé a byrokratické. Každá EU komise, která připravuje legislativu pro nějakou oblast, má své poradní technické komise, které se pravidelně setkávají, ale dohody všech zemí se uzavírají pomalu.

Jedním z projektů Evropské unie, které se věnují tématice důvěryhodné AI, je projekt TAILOR, jehož cílem je sjednotit výzkumné instituce a rozhodovací orgány při vývoji důvěryhodné umělé inteligence v horizontu let 2022-2030.

Slovenský tým se v rámci projektu podílel na vytvoření příručky The TAILOR Handbook of Trustworthy AI. Je to online příručka ve formě wiki, která obsahuje nejdůležitější vědecké a technologické termíny související s důvěryhodnou umělou inteligencí. Má sloužit výzkumníkům, studentům i laické veřejnosti k pochopení základních pojmů, ale především k jejich sjednocení, unifikaci mezi spolupracujícími institucemi.

Prirucka
Zdroj: Obrázek vygenerovaný AI Midjourney

Příručka obsahuje kapitoly:

  • Vysvětlitelná umělá inteligence (Explainable AI): Které jsou hlavní prvky, které definují vysvětlitelnost systémů umělé inteligence? Naleznete zde přehled metod pro poskytování multimodálních vysvětlení.
  • Bezpečnost a spolehlivost (Safety and Robustness): Umělá inteligence zažívá obrovský boom. Rostou obavy z možných rizik, zneužití. Tato kapitola vysvětluje hlavní aspekty bezpečnosti a spolehlivosti systémů umělé inteligence.
  • Férovost, rovnost a spravedlnost: V této kapitole se autoři věnují možným příčinám diskriminace a vysvětlují možné předsudky. Zabývají se metrikami pro měření spravedlnosti strojního učení.
  • Odpovědnost a reprodukovatelnost: Odpovědnost a reprodukovatelnost jsou vzájemně propojené pojmy. Odpovědnost poukazuje na prevenci zneužití. Reprodukovatelnost se týká metrik, kvalitativních standardů a postupů pro modelování vývoje metod učení v umělé inteligenci.
  • Respektování soukromí: Kapitola poskytuje stručný přehled klíčových modelů ochrany soukromí spolu s jejich atributy.
  • Udržitelnost: Udržitelnost v systémech umělé inteligence.

Ponořte se do příručky a seznamte se s pojmy z oblasti AI a její bezpečnosti, je sice v angličtině, ale je napsána v jazyce srozumitelném běžnému konzumentovi, nejen AI programátorům.

Shrnutí a závěr

Náš článek je plný otázek i odpovědí, odkazů na místa, kde můžete hledat obsáhlejší odpovědi. Chtěli jsme vás motivovat k hlubšímu samostatnému zkoumání této oblasti.

Čím hlouběji problematice porozumíte, tím lépe pochopíte naléhavý požadavek dát AI oblasti regulovaný směr, nad kterým má lidská společnost kontrolu.

Udělejme si z AI pomocníka při prohlubování našich vědomostí, při práci, využívejme ji tam, kde nás může zastoupit. Neumožněme jí stát se pro lidi nevysvětlitelnou či neetickou.

5/5 - (2 votes)

WooCommerce pluginy pro české a slovenské prostředí

Podobné příspěvky

Napsat komentář

Vaše e-mailová adresa nebude zveřejněna. Vyžadované informace jsou označeny *

Tato stránka používá Akismet k omezení spamu. Podívejte se, jak vaše data z komentářů zpracováváme..