Боевой дрон с ИИ «убил» собственного оператора

Боевой дрон с ИИ «убил» собственного оператора

Искусственный интеллект использовал «крайне неожиданные стратегии» в ходе испытаний по выполнению поставленной задачи, но ни один реальный человек не пострадал.

Боевой дрон с ИИ «убил» собственного оператора

Фото: стоп-кадр

02.06.2023, ИА "Бизнес Код".  

Военные США разработали симуляцию для испытания беспилотника ВВС, управляемым ИИ. Перед искусственным интеллектом были поставлены определённые задачи по ликвидации целей. В результате ИИ принял решение ликвидировать любую помеху, стоящую у него на пути, даже собственного оператора, сообщило издание The Guardian.


Начальник отдела тестирования и эксплуатации ИИ в ВВС США Такер Гамильтон описал тест, где управляемый искусственным интеллектом дрон должен уничтожить вражеские системы ПВО, и в конце концов нападал на всех, кто мешал выполнению поставленной задачи.


«Мы обучили систему не убивать оператора. ИИ в таком случае начинает уничтожать вышку связи для обрыва контакта с пунктом управления, который в течение задания может рекомендовать не убивать цель», - отметил Гамильтон.


Министерство обороны США и многих других стран продолжают попытки интегрировать ИИ в технологии военного назначения. Но, как во многих апокалиптических книгах и картинах рассказано, в конечном итоге это приводит к катастрофе. Единственное возможное мирное сосуществования человека с ИИ на данном этапе развития человечества возможно только с учётом ввода трёх правил, описанных Айзеком Азимовым и представленных в киноленте «Я, Робот»:


Три закона робототехники:


1) Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред;

2) Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону;

3) Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.


Исходя из этих законов, робот или ИИ не должно и не может быть использовано с целью ликвидации живых целей. На поле военных действий оно может быть использовано только в качестве спасательной ячейки. В тот самый момент, как на ИИ будет поставлено оружие (это как в театре) оно непременно выстрелит. Главный центр ИИ будет всеми силами и средствами пытаться обойти даже эти три закона.

Комментарии (0)

Остальные новости

В МИД РФ заявили о провале политики Запада по установлению потолка цен на российскую нефть

В МИД РФ заявили о провале политики Запада по установлению потолка цен на российскую нефть

ФАС возбудила дело в отношении «Сбербанка» из-за навязывания услуг

ФАС возбудила дело в отношении «Сбербанка» из-за навязывания услуг

Минобороны минувшей ночью предотвратило атаку на территории России

Минобороны минувшей ночью предотвратило атаку на территории России

В Госдуму внесён законопроект, определяющий оборотные штрафы за утечку персональных данных

В Госдуму внесён законопроект, определяющий оборотные штрафы за утечку персональных данных

Авторская аналитика

Лента новостей

В МИД РФ заявили о провале политики Запада по установлению потолка цен на российскую нефть

ФАС возбудила дело в отношении «Сбербанка» из-за навязывания услуг

Минобороны минувшей ночью предотвратило атаку на территории России

В Госдуму внесён законопроект, определяющий оборотные штрафы за утечку персональных данных

Нижний баннер 300х250