Недавно казалось, что вот-вот роботы начнут заменять человека на поле боя, и особых сомнений в том, что промышленность лидеров производства оборонных систем способна будет все это производить – не было. Авианосцы новой серии в США как раз по умолчанию проектировались для работы с дронами. Собственно говоря, дроны уже тоже были готовы к серии, но теперь они же будут использованы в виде летающих танкеров. Но даже внешний вид этих машин выдавал в них не бензовозов, а хищников. В самом деле, конструкция этих систем выполнена с учетом требований стелс технологий. Об этом говорит вместительный внутренний отсек, теперь используемый под емкость для топлива.
Изначально же планировалось использовать внутреннее пространство для крепежа вооружений. Никаких внешних подвесок там вообще не предполагалось. В общем, эти машинки уже прошли испытания по взлету и посадке на палубу, показывая свою готовность принять вооружения и уже работать по профилю, как ударная единица, но все остановилось просто в последний момент.
Никаких удовлетворительных пояснений этой метаморфозе так и не было дано. Просто вчера это были перспективные платформы для новых систем вооружений, а завтра пошли хвалебные комментарии об их выдающихся способностях в качестве заправщиков. При этом, было дано пояснение такого порядка, что раз у Китая появились гиперзвуковые противокорабельные ракеты, то авианосцы не должны входить в зону их досягаемости, а тогда сокращается операционная зона палубной авиации, и потому – заправщики стали такими актуальными.
Но эта отговорка вряд ли кого-то удовлетворила. В конце концов, заправщики есть и сейчас, и ваять стэлс робота-заправщика уже кажется чем-то сюрреалистичным. Куда более реальной версией такого разворота программы стала неготовность оборудования, которое должно обеспечить именно автономные возможности машины. То есть, платформа уже есть, и вооружение для платформы – тоже есть, но нет связки между ними. Изначально предполагалось, что дроны будут получать миссию, а уже в ее ходе они будут самостоятельно выбирать цели, устанавливать их приоритет и распределять их между единицами в ударной группе. То есть, должна была работать стая дронов, которая работала бы на конечный результат – успех миссии, а уже как будет выполнена эта миссия – дроны решают самостоятельно.
Это значит, что речь шла об использовании развитой системы искусственного интеллекта, и с нею произошел сбой или обнаружены проблемы, которые не позволяют машину отпустить на самостоятельную охоту с возможностью принятия решения об открытии огня.
Все это было из области догадок, но вот стало известно о том, что Пентагон поручил DARPA разработку третьего поколения искусственного интеллекта для систем вооружений. Похоже на то, что в ходе испытаний ударных дронов была обнаружена критическая проблема на системном, глобальном уровне, и соответственно – недостаточный уровень развития искусственного интеллекта, который не способен справиться с тем комплексом задач, которые предполагали миссии. Видимо, какое-то время ушло на то, чтобы установить причину этой проблемы, осмыслить в деталях, как дрон должен работать, и в конце концов – сформулировать задачу для разработчиков, чтобы конечный продукт мог дать желаемую функциональность.
Новая система искусственного интеллекта третьего поколения имеет условное название «AI-Next». Конечной целью этих работ должно стать состояние, когда человек сможет доверять машине не только в ее ответах и интерпретациях, но и в ее умении обучаться таким образом, чтобы давать интерпретации в контексте.
В DARPA разделяют поколения ИИ примерно таким образом. В первой волне ИИ может рассуждать по узко определенным проблемам. Хотя система и привносит определенные элементы способности к обучению, она описывается как «низкий уровень уверенности» или доверия. Проблема этого поколения заключается в том, что система оперирует заложенными в ее базу данными и составляет ситуацию имеющимся шаблонам. Но если какая-то часть базы данных окажется поврежденной или скомпрометированной, либо просто устаревшей ввиду существенно изменившейся обстановки, то ИИ выдаст решение, которое окажется не таким, которое ожидает от нее человек. Таким образом, ее надежность невелика.
Второе поколение ИИ уже получило способность реагировать на изменение базы данных и обстановки и динамично подстраиваться под эти изменения, интерпретируя их, исходя из общих, статистически более широких данных и понятий. Насколько можно понять, именно эта генерация ИИ предполагалась к применению в системах вооружений. Но в процессе испытаний оказалось, что система уязвима именно в части интерпретаций событий и изменения данных. То есть, происходило смещение базовых принципов, хотя этот эффект возникал при одновременном сложении нескольких факторов.
Тем не менее, в случае с боевым оружием, а не пылесосом или бытовым прибором, этого оказалось недостаточно, поскольку фактор надежности военные возвели во главу угла. Таким образом, ИИ второго поколения получил оценку «минимальной надежности», и военные не решились его применить в уже готовых платформах, как тот палубный дрон, о котором мы вели речь ранее. Кстати, военные приняли решение о том, что ИИ вполне может применяться в не боевых системах или там, где работу ИИ контролирует человек. Но для боевых систем, которые должны работать практически автономно и самостоятельно выбирать цели и принимать решение об их поражении, этого оказалось недостаточно.
Над ИИ третьего поколения вместе с DARPA работает Raytheon, который получил контракт от ВМФ на выполнение конкретных работ, в этом направлении. Похоже на то, что разработчики теперь пошли несколько необычным путем. Поскольку конечной целью стала предсказуемость действий ИИ, а значит и ее надежность, компьютерные алгоритмы теперь должны получить представление о человеке, в части взаимодействия с ним. Это важно для правильности интерпретации субъективных нюансов. Оказалось, что базы данных, которые являются исходной точкой для ИИ, надо наполнять более общими понятиями, которые дают нужные аспекты в интерпретации изменяющейся ситуации и/или изменения данных, содержащихся в базе, а если нужно, то и фиксировать устаревающие данные, которые выпадают из контекста и не поддаются интерпретации, согласно этим самым более общим критериям.
В общем, прямо сейчас мы подходим к тому моменту, который давно описан писателями-фантастами и уже прямо формируются те самые законы робототехники, которые дали основу для десятков фантастических романов. Айзек Азимов, еще в далеком 1942 году, в своем рассказе «Хоровод» так описывал основные законы робототехники:
Судя по всему, третье поколение ИИ формирует именно эти правила игры для роботов. По крайней мере, инженеры из Raytheon говорят о том, что алгоритмы, которые составляются для ИИ третьего поколения, уже используют набор философских концепций, психологических и эмоциональных понятий. В общем, без того, чтобы владеть какими-то основными принципами, которыми руководствуется человек, робот не вполне поймет задачу, а главное – способы ее решения, которые хочет видеть человек.
И тут мы выходим на такой уровень решения проблемы, который ставит вопрос о том, чего же хочет человек? Как стало понятно, без объяснения хотя бы в общих чертах этого машине, она не может быть настолько надежной, чтобы доверить ей летальное оружие, и главное, право решать, когда она (машина) может отнять человеческую жизнь, а когда – нет.
Окружающие события говорят о том, что люди себе это не всегда могут объяснить четко, а главное – универсально, чтобы это правило или комплекс правил ты мог применять без оглядки и знать, что это же самое будет применено и к тебе.
Тот, кто служил в совковой армии и нес службу дневальным по роте помнит, как звучит доклад командиру, вошедшему в расположение роты: «… за ваше отсутствие происшествий не случилось, кроме – трое дезертировали, сгорела казарма и автопарк». То есть, сначала докладывается, что все хорошо, потому что есть докладчик и он в состоянии говорить, а дальше – как есть. В общем, это – казарменное переложение старой Утесовской песни «Все хорошо, прекрасная маркиза». Так вот, мы это понимаем, но улавливаем иронию или сарказм в смысле сказанного. Грубо говоря, машину надо научить понимать контексты, и дать ей критерии к их пониманию, но мы не всегда можем эти же вещи вдолбить в голову людям из плоти и крови.
И главное. Кроме существенного расширения исходных баз данных, нужных алгоритмов, позволяющих интерпретировать входящие изменения, и критериев для интерпретации, ИИ должен быть способен к самообучению, на основе исходных данных и всех тех изменений, которые происходят вокруг, и что самое важное, он должен уметь корректировать этот процесс самообучения, а значит – анализировать и его.
Но похоже на то, что эта работа уже дала положительные результаты, и теперь ей придают форму, которая необходима для автономных боевых систем. Не зря почти вся новая боевая техника США, будь то воздушная, морская или сухопутная опционально готовится к возможной работе в автономном режиме, под управлением ИИ. Это значит, что сами боевые системы уже готовы или находятся на финальной стадии разработки и дело только за «мозгами».
https://defence-line.org/2018/10/o-zakonax-robototexniki-i-oruzhii-chast-2/#more-28581