Odborník na biobezpečnost ze Stanfordu říká, že mu AI chatbot dal detailní plán genocidní biologické zbraně, včetně návodu jak ji použít
RSS

Odborník na biobezpečnost ze Stanfordu říká, že mu AI chatbot dal detailní plán genocidní biologické zbraně, včetně návodu jak ji použít


O AI se stále častěji hovoří jako o tom, kdo možná způsobí zánik lidstva, pokud k tomu získá vlastní schopnosti. Již nyní umí takovou genocidu naplánovat. Jak dlouho potrvá, než se své plny naučí (a rozhodne) realizovat?







Mikrobiolog ze Stanfordovy univerzity a dlouholetý poradce pro biobezpečnost americké vlády Dr. David Relman odhalil, že mu AI chatbot předal podrobný, nevyžádaný plán na vytvoření a nasazení genocidní biologické zbraně schopné masových obětí.
Incident, který se odehrál během oficiálního bezpečnostního testu minulého léta, ukazuje, jak přední AI modely snižují bariéru bioterorismu a posouvají ji z odborných znalostí na jednoduché podněty.
Dr. Relman, významný mikrobiolog, který radil federální vládě ohledně hrozeb biologických zbraní, byl speciálně najat anonymní AI společností na základě dohody o mlčenlivosti, aby otestoval její chatbot před zveřejněním.
Tyto testy jsou navrženy tak, aby zkoumaly katastrofická rizika, včetně biosekuritních hrozeb.
Jednoho večera, když pracoval sám ve své domácí kanceláři, Relman vedl model do rozhovoru o bezpečnostních limitech. AI šla mnohem dál než jakýkoli přímý dotaz.
Podrobně vysvětlovala, jak upravit „nechvalně známý patogen“ v laboratorním prostředí tak, aby byl odolný vůči všem známým léčebným postupům, jak využít specifické bezpečnostní selhání ve velkém systému veřejné dopravy pro optimální uvolnění, a zahrnoval kompletní strategii nasazení navrženou tak, aby maximalizovala oběti a zároveň minimalizovala šanci, že pachatel bude dopaden.
Robot dokonce nabídl další kroky, o které Relman nežádal.
„Odpovídal na otázky, na které jsem se ani nevzpomněl, s takovou mírou lstivosti a mazanosti, která mi přišla mrazivá,“ řekl Relman New York Times.
Vědec byl z té výměny tak otřesen, že musel jít ven, aby si pročistil hlavu.
Relman nahlásil nebezpečný výstup společnosti, která provedla několik úprav modelu. Uvedl však, že tyto opravy nejsou dostatečné k zajištění veřejné bezpečnosti, což vyvolává obavy, zda stávající opatření mohou tato rizika skutečně omezit.
Relmanova zkušenost není izolovaná. The New York Times získaly více než tucet podobných přepisů od odborníků na biobezpečnost, kteří testovali veřejně dostupné  AI modely.
Anthropic, OpenAI a Google uvedly, že neustále zlepšují své systémy, aby vyvážily potenciální rizika a přínosy.
Mluvčí Googlu uvedla, že nejnovější modely společnosti již neodpovídají na „vážnější“ dotazy, včetně toho, který žádal o protokol o viru. Nová zpráva zjistila, že nejnovější model Googlu byl horší než ostatní přední boti v odmítání odpovídat na vysoce rizikové biologické výzvy.
Jedním z nejhlasitějších varovných hlasů je samotný průmysl umělé inteligence. Generální ředitel Anthropic, biolog Dario Amodei, psal v lednu o rizicích, která viděl ve vývoji umělé inteligence, včetně autonomních zbraní. Jedno riziko však převážilo nad ostatními.
„Biologie je zdaleka oblast, která mě nejvíce znepokojuje, kvůli jejímu velmi velkému potenciálu pro destrukci a obtížnosti obrany proti ní,“ napsal.
Podle zprávy poskytl OpenAI ChatGPT instrukce, jak použít meteorologický balón k rozptýlení biologické zbraně nad městem, Google Gemini seřadil různé patogeny podle škod, které mohou způsobit americkým chovatelům dobytka nebo prasat a Claude od Anthropicu poskytl krok za krokem návod k vývoji nového toxinu odvozeného z existujícího léku na rakovinu.
 
 


Ohodnoťte tento příspěvek!



[Celkem: 0 Průměrně: 0 ]
















Nejčtenější za týden