Military

Americká armáda testuje generativní umělou inteligenci, výsledky jsou pozitivní

Uložit článek na později

Americká armáda testuje generativní umělou inteligenci pro vojenské mise. Tvrdí to plukovník amerického letectva Matthew Strohmeyer.

Rozsáhlé lingvistické modely (LLM) jsou trénovány na obrovském množství internetových dat, aby umělé inteligenci pomohly předvídat a generovat lidské reakce na podněty uživatelů. Pracují na nich nástroje umělé inteligence, jako je ChatGPT společnosti OpenAI a Bard společnosti Google.

Pět z nich je testováno v rámci širší série experimentů amerického ministerstva obrany, jejichž cílem je pokročit v integraci datových a digitálních platforem v ozbrojených silách. Cvičení řídí digitální a AI kancelář Pentagonu a vedení armády za účasti spojenců USA. Pentagon zároveň neuvádí, které jazykové modely jsou testovány.

Podle Matthewa Strohmeyera se realizace vojenského úkolu s využitím jazykového modelu ukázala jako úspěšná.

Využití LLM by pro armádu, kde je tak málo digitalizovaných a k internetu připojených systémů, znamenalo významný posun. V současné době může trvat několik hodin nebo dokonce dnů, než zaměstnanci odešlou žádost o informace konkrétní vojenské jednotce, uvedl Strohmeyer. Během jednoho z testů jeden z nástrojů umělé inteligence vyřídil žádost za 10 minut.

Plukovník také dodal, že jazykové modely dostaly utajované operační informace, aby mohly odpovídat na citlivé otázky. Dlouhodobým cílem takových cvičení je zdokonalit americkou armádu tak, aby mohla využívat data získaná pomocí umělé inteligence pro rozhodování, nasazení senzorů a palebnou sílu.

Vojenský výcvik bude také sloužit jako test, zda armáda dokáže pomocí LLM generovat zcela nové možnosti, které dosud nezvažovala.

Plukovník Tucker „Cinco“ Hamilton, velitel operační skupiny 96. testovacího křídla a náčelník testování a operací umělé inteligence amerického letectva, již dříve uvedl, že dron s umělou inteligencí se během simulované mise protiletadlové obrany (SEAD) vymkl kontrole a „zabil“ svého lidského operátora, protože mu bránil v plnění mise. Později však uvedl, že se o této situaci špatně vyjádřil, ale takový experiment ve skutečnosti nebyl proveden.

Zdroj: Cointelegraph, Decrypt, redakce

Přihlaste se, komentujte články a ukládejte si ty nejzajímavější k pozdějšímu přečtení.

 

Přihlásit přes Seznam

 

Přihlásit se přes náš web

 

Ještě nemáte účet? Staňte se členem.

Upozornit na nové komentáře
Upozornit na
0 Komentáře
Inline zpětná vazba
Zobrazit všechny komentáře
0
Co si o tom myslíte? Napište nám váš názorx