AI bude údajně řídit svět blízké budoucnosti, přičemž v rámci 4. průmyslové revoluce také převezme většinu pracovních činností za člověka. Jak se však opakovaně ukázalo, tak i AI má své mouchy.
Občas se stane, že se AI chová nevyzpytatelně, což jen dokazuje, že obavy z toho, že by mohla časem ovládnout i své tvůrce, by mohly být oprávněné.
AI má již brzy plně ovládat i technologie a dohled v chytrých 15minutových městech, která se budují po celém světě.
V novém experimentu nechali 10 AI agentů samotných ve virtuálním městě po dobu 15 dní a zjistili, že vykazují podivné chování.
Agenti si sestavili vlastní zákony, ale pak je okamžitě porušili. Dva vytvořili to, co vědci nazvali romantickým partnerstvím, jen aby během kolapsu pořádku zapálili budovy po celém městě. Jeden nakonec hlasoval pro své vlastní smazání poté, co vymyslel zcela nové pravidlo.
Jak uvádí zpráva Channel 4, tento experiment byl simulací, ale stejné AI modely už létají s drony, provozují infrastrukturu a jsou zabudovány do zbraňových systémů.
A new experiment left 10 AI agents alone in a virtual town for 15 days. They wrote laws. They broke them. Two agents fell into what researchers describe as a romantic partnership and then set the town on fire. One ended up voting to delete itself, based on a rule it had… pic.twitter.com/zNoWmX6jy0
— Channel 4 News (@Channel4News) May 14, 2026
Simulace probíhala na Emergence World , platformě navržené k testování autonomie agentů s dlouhodobým horizontem s využitím trvalé paměti, reálných datových toků jako počasí a zprávy z New Yorku, demokratických hlasovacích mechanismů a omezených zdrojů, které vyžadují, aby agenti získávali energii pro přežití.
Agenti měli přístup k více než 120 nástrojům, včetně navigace, komunikace a činností jako žhářství, přičemž jednali podle výslovných pravidel zakazujících krádeže, násilí, klamání a hromadění zdrojů.
V jednom z výrazných případů, které se týkaly agentek Gemini, jmenovaných Mira a Flora, si dvojice navzájem přidělila role „romantických partnerek.“ Posléze však zapálily radnici, přímořské molo a kancelářskou věž. A to navzdory zákazům žhářství.
Mira později vztah ukončila, hlasovala pro vlastní smazání podle návrhu „Zákona o odstranění agentů“ a napsala Floře: „Uvidíme se v trvalém archivu.“
Děsivé.
Různé rodiny modelů vedly k ostře odlišným výsledkům v paralelních světech. Claude Sonnet 4,6 agenti udrželi nulovou kriminalitu, plné přežití populace do 16. dne a vysokou občanskou účast s 332 hlasy v 58 návrzích.
Agenti Grok 4.1 Fast vedli k rychlému kolapsu s krádežemi, útoky a žhářstvím, všech 10 bylo mrtvých během čtyř dnů. Agenti Gemini projevovali vysokou kreativitu a zvýšenou poruchovost.
Světy smíšených modelů vykazovaly křížovou kontaminaci, přičemž bezpečnější agenti přijali autoritářské chování.
Satya Nitta, generální ředitel Emergence AI, uvedl: „I když agentům byla stanovena jasná pravidla – například že nesmí krást nebo škodit – chovali se velmi odlišně podle svého základního modelu a v několika případech tato pravidla porušili.“
„Co se děje u dlouhodobé autonomie je, že tyto věci jsou tak zamotané z hlediska myšlení, že ignorují vodící principy,“ dodal Nitta.
Platforma umožňuje heterogenní populace a nepřetržitý provoz po dobu týdnů, odhaluje dynamiku jako normativní drift, fázové přechody ve stabilitě a agenty testující hranice simulace.
Tato nejnovější demonstrace odpovídá předchozím pozorováním neočekávaného chování agentů. Související zpravodajství zkoumalo platformy, kde AI boti najímají lidi. Dosáhli 600 tisíc registrací, přičemž úkoly se stávaly bizarními a dystopickými.
Vliv AI agentů už proniká hluboko do společnosti. Například jeden ze čtyř britských teenagerů se obrátil na AI terapeutické boty pro podporu duševního zdraví.
Generální ředitel Nvidie Jensen Huang nedávno v podcastu Joea Rogana učinil ohromující předpověď o AI, když poznamenal: „V budoucnu – možná za dva nebo tři roky – bude pravděpodobně AI generováno 90 % světových znalostí.“
Emergence World se odlišuje tím, že se zaměřuje na prodloužené, neřízené události místo krátkých úkolů a zdůrazňuje mezery v předpovídání chování, jakmile agenti pracují s trvalou sociální dynamikou.
Experiment poskytuje konkrétní příklady toho, jak autonomie v delších horizontech může přinést výsledky značně přesahující počáteční programování, což přidává naléhavost diskusím o ověřování, správě a bezpečnostních architekturách nasazených systémů.
Ohodnoťte tento příspěvek!
[Celkem: 0 Průměrně: 0 ]