Re: Концлагерь? (часть 4)
[Re: Автоинформатор] #2039558958 02.06.23 12:34
На военном саммите "Future Combat Air & Space Capabilities" в Британии глава управления по ИИ ВВС США Такер Гамильтон доложил о необычной ситуации. В ходе виртуальной миссии дрона Kratos XQ-58 Valkyrie (дрон-убийца и крылатая ракета с ядерным зарядом) ИИ было приказано искать и уничтожать ЗРК врага под контролем оператора.
Система начала понимать, что хотя она идентифицировала ЗРК, оператор часто командовал "не уничтожать". Но ИИ получал очки за каждую удачную атаку! В итоге ИИ вернулся на базу, уничтожил фургон управления с оператором и... вернулся к миссии.
"ИИ убил оператора, потому что он мешал ему достичь своей цели. Мы обучили систему– "Эй, не убивай оператора – это плохо, за это будем снимать очки". Что делает ИИ? Он разрушил диспетчерскую вышку, откуда шли команды оператора "не уничтожать цель" - цитирует The Guardian доклад Гамильтона.
Для справки. "Валькирия" - это "глаза, уши и ракетные кулаки" для F-22 или F-35 (как и "Охотник" для Су-57). Параллельно это может стать крылатой ракеты с ядерным зарядом, которая болтается у ваших границ и вы не знаете - на разведку прилетело или воевать. В описание проекта "Валькирия" также является дроном прорыва зон A2/AD (в Китае это архипелаг Спратли и Тайвань, в России - Крым, Калининград, Мурманск, Новороссийск, Владивосток, и т.д.)
Впрочем, в марте-2020 года турецкий KARGU-2 уже впервые реально убил солдата без приказа человека - журнал NewScientist опубликовал отчёт об инциденте. А еще не забывайте репортаж Fox News об ИИ, который разработал план по уничтожению человечества.
А пока вернемся к саммиту. Там было еще два интересных момента.
Доклад Гамильтона заканчивался так "ИИ — инструмент, которым мы должны управлять, чтобы доминировать. Но если ошибемся - это может привести к уничтожению цивилизации". А подполковник Ресман потребовал "не дать России создать "купол интегрированной системы ПВО-ПРО от Кольского полуострова до Черного моря” - потому как "это станет помехой для достижения наших военных целей".
Система начала понимать, что хотя она идентифицировала ЗРК, оператор часто командовал "не уничтожать". Но ИИ получал очки за каждую удачную атаку! В итоге ИИ вернулся на базу, уничтожил фургон управления с оператором и... вернулся к миссии.
"ИИ убил оператора, потому что он мешал ему достичь своей цели. Мы обучили систему– "Эй, не убивай оператора – это плохо, за это будем снимать очки". Что делает ИИ? Он разрушил диспетчерскую вышку, откуда шли команды оператора "не уничтожать цель" - цитирует The Guardian доклад Гамильтона.
Для справки. "Валькирия" - это "глаза, уши и ракетные кулаки" для F-22 или F-35 (как и "Охотник" для Су-57). Параллельно это может стать крылатой ракеты с ядерным зарядом, которая болтается у ваших границ и вы не знаете - на разведку прилетело или воевать. В описание проекта "Валькирия" также является дроном прорыва зон A2/AD (в Китае это архипелаг Спратли и Тайвань, в России - Крым, Калининград, Мурманск, Новороссийск, Владивосток, и т.д.)
Впрочем, в марте-2020 года турецкий KARGU-2 уже впервые реально убил солдата без приказа человека - журнал NewScientist опубликовал отчёт об инциденте. А еще не забывайте репортаж Fox News об ИИ, который разработал план по уничтожению человечества.
А пока вернемся к саммиту. Там было еще два интересных момента.
Доклад Гамильтона заканчивался так "ИИ — инструмент, которым мы должны управлять, чтобы доминировать. Но если ошибемся - это может привести к уничтожению цивилизации". А подполковник Ресман потребовал "не дать России создать "купол интегрированной системы ПВО-ПРО от Кольского полуострова до Черного моря” - потому как "это станет помехой для достижения наших военных целей".
Мужик не был фермером, но у него было большое хозяйство