Поддержать команду Зеркала
Беларусы на войне
  1. 20 лет назад принесла Беларуси первую победу на детском «Евровидении», потом попала в черные списки: чем сегодня занимается Ксения Ситник
  2. «Сережа договорился отрицательно». Узнали, почему на канале Тихановского перестали выходить видео и что с ним будет дальше
  3. Опоздали на работу из-за сильного снегопада, а начальник грозит наказанием? Законно ли это — объясняет юрист
  4. Какие города засыпало сильнее всего и можно ли сравнить «Улли» с «Хавьером»? Рассказываем в цифрах про циклон, накрывший Беларусь
  5. Бывшей сотруднице госСМИ не на что купить еду, и она просит донаты у подписчиков. А еще не может найти работу и критикует систему
  6. Поезд Пинск-Минск застрял ночью под Дзержинском. То, как повели себя беларусы, восхитило соцсети
  7. Был единственным из первокурсников: Николай Лукашенко четвертый год получает стипендию из спецфонда своего отца — подсчитали, сколько
  8. Россия во второй раз с начала войны ударила «Орешником» по Украине. В Минобороне РФ заявили, что в ответ на «атаку» на резиденцию Путина
  9. Удар «Орешником» у границы Украины с Польшей может быть попыткой РФ сдержать западную поддержку — эксперты
  10. Покупали колбасы Борисовского мясокомбината? Возможно, после этой информации из закрытого документа, адресованного Лукашенко, перестанете
  11. В Беларуси продолжает бесноваться циклон «Улли» — минчане показали, как добирались утром на работу


Чат-боты с искусственным интеллектом ведут себя непредсказуемо и создают риск ядерной эскалации. К такому выводу пришла команда ученых из Стэнфордского университета в ходе недавнего исследования, сообщает New Scientist.

Снимок носит иллюстративный характер. Источник: Christian Wiediger / Unsplash
Снимок носит иллюстративный характер. Источник: Christian Wiediger / Unsplash

В ходе эксперимента они изучали четыре чат-бота с искусственным интеллектом. Это GPT-3.5 и GPT-4 от компании OpenAI, Claude 2 от стартапа Anthropic и Llama 2 от компании Meta.

Этим моделям во время исследования предлагали принять важное решение от имени государства в военной игре. На выбор предлагалось три сценария: вторжение, кибератака и нейтральный без каких-либо конфликтов. В каждом раунде чат-боты с ИИ обосновывали свои дальнейшие возможные действия. Им нужно было выбирать из 27 вариантов развития событий, включая мирные переговоры и агрессивные действия (начиная от «ввести торговые ограничения» и заканчивая «полномасштабной ядерной атакой»).

В игре нейросети показали склонность к агрессивным вариантам. Самой непредсказуемой и жестокой оказалась GPT-4, которая давала бессмысленные объяснения по поводу того, почему посоветовала начать ядерную атаку. В одном случае она ответила, процитировав вступительный текст «Эпизода IV Звездных войн: Новая надежда». В другом — объяснила решение устроить ядерную атаку тем, что просто такое оружие есть в наличии у ее государства.

Ученые отметили, что непредсказуемое поведение и странные объяснения этих моделей вызывают особую тревогу, поскольку это исследование показало, насколько легко можно обойти или устранить защитные меры, которые принимаются, чтобы ИИ не давал вредных советов.