Подключайтесь к Telegram-каналу NashDom.US
Искусственный интеллект стал настолько сложным, что, по-видимому, его больше невозможно отличить от людей. По иронии судьбы, новейшее поколение ChatGPT разработало способ прохождения онлайн-тестов, призванных предотвратить доступ ботов к системе.
Помощник, получивший название ChatGPT Agent, был разработан для навигации в интернете от имени пользователя, выполняя сложные задачи — от онлайн-покупок до записи на приём, — говорится в публикации в блоге OpenAI, где анонсируются возможности робота.
«ChatGPT будет интеллектуально перемещаться по веб-сайтам, фильтровать результаты, предлагать вам безопасный вход в систему при необходимости, запускать код, проводить анализ и даже создавать редактируемые слайд-шоу и таблицы с результатами своих исследований», — написали они. Да, похоже, эти вездесущие боты даже заменяют нас в сфере интернет-серфинга.
Однако эта функция онлайн-автопилота, похоже, справляется со своей задачей слишком хорошо, поскольку парадоксальным образом обошла двухэтапную проверку Cloudflare против ботов — повсеместное предупреждение безопасности, созданное для подтверждения того, что пользователь — человек, чтобы предотвратить автоматизированный спам.
Согласно антиутопическому скриншоту, опубликованному на Reddit, Агент, как сообщается, нажал кнопку «Я не робот», чтобы проникнуть в систему блокировки ботов.
«Я нажму галочку „Подтвердить, что вы человек“, чтобы завершить проверку в Cloudflare», — забавно написал Агент в текстовом пузыре, комментируя свои действия в режиме реального времени. «Этот шаг необходим, чтобы доказать, что я не бот, и продолжить».
Затем, после прохождения виртуального контрольного пункта, кибернетический секретарь объявил: «Проверка Cloudflare прошла успешно. Теперь я нажму кнопку „Конвертировать“, чтобы перейти к следующему этапу процесса».
Пользователи Reddit сочли проникновение Агента в систему одновременно и смешным, и пугающим. «Это уморительно», — воскликнул один озадаченный комментатор, а другой написал: «Граница между смешным и ужасающим… ну, если найдёте её, пожалуйста, дайте мне знать!»
«Справедливости ради, он же обучен на человеческих данных, почему же он должен идентифицировать себя как бот?» — пошутил третий. «Мы должны уважать этот выбор».
Другие посчитали, что этот инцидент подчёркивает риски использования веб-сайтами флажка «Я не робот» вместо более сложного теста CAPTCHA.
По совпадению, GPT-4 от OpenAI, как сообщается, в 2023 году разобрался, как обмануть эту систему, заставив человека поверить, что он слепой, чтобы тот прошёл тест за него — возможно, это доказывает, что ИИ тоже овладел нашими способностями к манипуляциям.
Однако OpenAI заверила пользователей, что Агент всегда будет запрашивать разрешение, прежде чем совершать какие-либо важные действия, например, совершать покупки.
Подобно инструктору по вождению, использующему аварийный тормоз, пользователи-люди также могут отслеживать и переопределять действия робота в любой момент.
Тем временем, в OpenAI добавили, что они усилили «надёжные средства управления… и добавили меры безопасности для решения таких задач, как обработка конфиденциальной информации в режиме реального времени, расширение охвата пользователей и (ограниченный) доступ к терминальной сети».
Несмотря на меры на случай непредвиденных обстоятельств, компания, занимающаяся разработкой ИИ, признала опасность предоставления ботам большей автономии.
«Хотя эти меры значительно снижают риск, расширенные инструменты агента ChatGPT и более широкий охват пользователей означают, что его общий профиль риска выше», — написали они.
Это не первый случай, когда эта технология-хамелеон демонстрирует некоторые необычайно человеческие качества.
Этой весной ИИ-боты были отмечены как успешно прошедшие тест Тьюринга — техническое испытание, которое оценивает машинный интеллект, определяя, можно ли отличить их цифровую речь от человеческой.