Общество
Общество
3 минуты
ВКонтакте Одноклассники Telegram

Искусственный интеллект использовал «крайне неожиданные стратегии» в ходе испытаний по выполнению поставленной задачи, но ни один реальный человек не пострадал.

Боевой дрон с ИИ «убил» собственного оператора стоп-кадр

Военные США разработали симуляцию для испытания беспилотника ВВС, управляемым ИИ. Перед искусственным интеллектом были поставлены определённые задачи по ликвидации целей. В результате ИИ принял решение ликвидировать любую помеху, стоящую у него на пути, даже собственного оператора, сообщило издание The Guardian.

Начальник отдела тестирования и эксплуатации ИИ в ВВС США Такер Гамильтон описал тест, где управляемый искусственным интеллектом дрон должен уничтожить вражеские системы ПВО, и в конце концов нападал на всех, кто мешал выполнению поставленной задачи.

«Мы обучили систему не убивать оператора. ИИ в таком случае начинает уничтожать вышку связи для обрыва контакта с пунктом управления, который в течение задания может рекомендовать не убивать цель», — отметил Гамильтон.

Министерство обороны США и многих других стран продолжают попытки интегрировать ИИ в технологии военного назначения. Но, как во многих апокалиптических книгах и картинах рассказано, в конечном итоге это приводит к катастрофе. Единственное возможное мирное сосуществования человека с ИИ на данном этапе развития человечества возможно только с учётом ввода трёх правил, описанных Айзеком Азимовым и представленных в киноленте «Я, Робот»:

Три закона робототехники:

1) Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред;

2) Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону;

3) Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.

Исходя из этих законов, робот или ИИ не должно и не может быть использовано с целью ликвидации живых целей. На поле военных действий оно может быть использовано только в качестве спасательной ячейки. В тот самый момент, как на ИИ будет поставлено оружие (это как в театре) оно непременно выстрелит. Главный центр ИИ будет всеми силами и средствами пытаться обойти даже эти три закона.