Информационное сопротивление

Тем не менее, в случае с боевым оружием, а не пылесосом или бытовым прибором, этого оказалось недостаточно, поскольку фактор надежности военные возвели во главу угла. Таким образом, ИИ второго поколения получил оценку «минимальной надежности», и военные не решились его применить в уже готовых платформах, как тот палубный дрон, о котором мы вели речь ранее. Кстати, военные приняли решение о том, что ИИ вполне может применяться в не боевых системах или там, где работу ИИ контролирует человек. Но для боевых систем, которые должны работать практически автономно и самостоятельно выбирать цели и принимать решение об их поражении, этого оказалось недостаточно.

Над ИИ третьего поколения вместе с DARPA работает Raytheon, который получил контракт от ВМФ на выполнение конкретных работ, в этом направлении. Похоже на то, что разработчики теперь пошли несколько необычным путем. Поскольку конечной целью стала предсказуемость действий ИИ, а значит и ее надежность, компьютерные алгоритмы теперь должны получить представление о человеке, в части взаимодействия с ним. Это важно для правильности интерпретации субъективных нюансов. Оказалось, что базы данных, которые являются исходной точкой для ИИ, надо наполнять более общими понятиями, которые дают нужные аспекты в интерпретации изменяющейся ситуации и/или изменения данных, содержащихся в базе, а если нужно, то и фиксировать устаревающие данные, которые выпадают из контекста и не поддаются интерпретации, согласно этим самым более общим критериям.

 

В общем, прямо сейчас мы подходим к тому моменту, который давно описан писателями-фантастами и уже прямо формируются те самые законы робототехники, которые дали основу для десятков фантастических романов. Айзек Азимов, еще в далеком 1942 году, в своем рассказе «Хоровод» так описывал основные законы робототехники:

  1. «Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
  2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
  3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам»

Судя по всему, третье поколение ИИ формирует именно эти правила игры для роботов. По крайней мере, инженеры из Raytheon говорят о том, что алгоритмы, которые составляются для ИИ третьего поколения, уже используют набор философских концепций, психологических и эмоциональных понятий. В общем, без того, чтобы владеть какими-то основными принципами, которыми руководствуется человек, робот не вполне поймет задачу, а главное – способы ее решения, которые хочет видеть человек.

И тут мы выходим на такой уровень решения проблемы, который ставит вопрос о том, чего же хочет человек? Как стало понятно, без объяснения хотя бы в общих чертах этого машине, она не может быть настолько надежной, чтобы доверить ей летальное оружие, и главное, право решать, когда она (машина) может отнять человеческую жизнь, а когда – нет.

Окружающие события говорят о том, что люди себе это не всегда могут объяснить четко, а главное – универсально, чтобы это правило или комплекс правил ты мог применять без оглядки и знать, что это же самое будет применено и к тебе.

Тот, кто служил в совковой армии и нес службу дневальным по роте помнит, как звучит доклад командиру, вошедшему в расположение роты: «… за ваше отсутствие происшествий не случилось, кроме – трое дезертировали, сгорела казарма и автопарк». То есть, сначала докладывается, что все хорошо, потому что есть докладчик и он в состоянии говорить, а дальше – как есть. В общем, это – казарменное переложение старой Утесовской песни «Все хорошо, прекрасная маркиза». Так вот, мы это понимаем, но улавливаем иронию или сарказм в смысле сказанного. Грубо говоря, машину надо научить понимать контексты, и дать ей критерии к их пониманию, но мы не всегда можем эти же вещи вдолбить в голову людям из плоти и крови.

И главное. Кроме существенного расширения исходных баз данных, нужных алгоритмов, позволяющих интерпретировать входящие изменения, и критериев для интерпретации, ИИ должен быть способен к самообучению, на основе исходных данных и всех тех изменений, которые происходят вокруг, и что самое важное, он должен уметь корректировать этот процесс самообучения, а значит – анализировать и его.

Но похоже на то, что эта работа уже дала положительные результаты, и теперь ей придают форму, которая необходима для автономных боевых систем. Не зря почти вся новая боевая техника США, будь то воздушная, морская или сухопутная опционально готовится к возможной работе в автономном режиме, под управлением ИИ. Это значит, что сами боевые системы уже готовы или находятся на финальной стадии разработки и дело только за «мозгами».

https://defence-line.org/2018/10/o-zakonax-robototexniki-i-oruzhii-chast-2/#more-28581

facebook twitter g+

 

 

 

 

Наши страницы

Facebook page Twitter page 

Login Form