Menu
Russian English Ukrainian

ChatGPT прошёл тест «Я не робот».



Подключайтесь к Telegram-каналу NashDom.US


 Дата: 29.07.2025 22:36



Искусственный интеллект стал настолько сложным, что, по-видимому, его больше невозможно отличить от людей. По иронии судьбы, новейшее поколение ChatGPT разработало способ прохождения онлайн-тестов, призванных предотвратить доступ ботов к системе.

Помощник, получивший название ChatGPT Agent, был разработан для навигации в интернете от имени пользователя, выполняя сложные задачи — от онлайн-покупок до записи на приём, — говорится в публикации в блоге OpenAI, где анонсируются возможности робота.

«ChatGPT будет интеллектуально перемещаться по веб-сайтам, фильтровать результаты, предлагать вам безопасный вход в систему при необходимости, запускать код, проводить анализ и даже создавать редактируемые слайд-шоу и таблицы с результатами своих исследований», — написали они. Да, похоже, эти вездесущие боты даже заменяют нас в сфере интернет-серфинга.

Однако эта функция онлайн-автопилота, похоже, справляется со своей задачей слишком хорошо, поскольку парадоксальным образом обошла двухэтапную проверку Cloudflare против ботов — повсеместное предупреждение безопасности, созданное для подтверждения того, что пользователь — человек, чтобы предотвратить автоматизированный спам.

Согласно антиутопическому скриншоту, опубликованному на Reddit, Агент, как сообщается, нажал кнопку «Я не робот», чтобы проникнуть в систему блокировки ботов.

«Я нажму галочку „Подтвердить, что вы человек“, чтобы завершить проверку в Cloudflare», — забавно написал Агент в текстовом пузыре, комментируя свои действия в режиме реального времени. «Этот шаг необходим, чтобы доказать, что я не бот, и продолжить».

Затем, после прохождения виртуального контрольного пункта, кибернетический секретарь объявил: «Проверка Cloudflare прошла успешно. Теперь я нажму кнопку „Конвертировать“, чтобы перейти к следующему этапу процесса».

Пользователи Reddit сочли проникновение Агента в систему одновременно и смешным, и пугающим. «Это уморительно», — воскликнул один озадаченный комментатор, а другой написал: «Граница между смешным и ужасающим… ну, если найдёте её, пожалуйста, дайте мне знать!»

«Справедливости ради, он же обучен на человеческих данных, почему же он должен идентифицировать себя как бот?» — пошутил третий. «Мы должны уважать этот выбор».

Другие посчитали, что этот инцидент подчёркивает риски использования веб-сайтами флажка «Я не робот» вместо более сложного теста CAPTCHA.

По совпадению, GPT-4 от OpenAI, как сообщается, в 2023 году разобрался, как обмануть эту систему, заставив человека поверить, что он слепой, чтобы тот прошёл тест за него — возможно, это доказывает, что ИИ тоже овладел нашими способностями к манипуляциям.

Однако OpenAI заверила пользователей, что Агент всегда будет запрашивать разрешение, прежде чем совершать какие-либо важные действия, например, совершать покупки.

Подобно инструктору по вождению, использующему аварийный тормоз, пользователи-люди также могут отслеживать и переопределять действия робота в любой момент.

Тем временем, в OpenAI добавили, что они усилили «надёжные средства управления… и добавили меры безопасности для решения таких задач, как обработка конфиденциальной информации в режиме реального времени, расширение охвата пользователей и (ограниченный) доступ к терминальной сети».

Несмотря на меры на случай непредвиденных обстоятельств, компания, занимающаяся разработкой ИИ, признала опасность предоставления ботам большей автономии.

«Хотя эти меры значительно снижают риск, расширенные инструменты агента ChatGPT и более широкий охват пользователей означают, что его общий профиль риска выше», — написали они.

Это не первый случай, когда эта технология-хамелеон демонстрирует некоторые необычайно человеческие качества.

Этой весной ИИ-боты были отмечены как успешно прошедшие тест Тьюринга — техническое испытание, которое оценивает машинный интеллект, определяя, можно ли отличить их цифровую речь от человеческой.


Понравилась статья - поделитесь:


Понравилась новость?
Подпишитесь на ежедневную рассылку новостей по темам
Вы можете также сами подписать друзей и обсуждать материалы вместе
Редакция не несет ответственность за содержание информационных сообщений, полученных из внешних источников. Авторские материалы предлагаются без изменений или добавлений. Мнение редакции может не совпадать с мнением писателя (журналиста)
Для того, чтобы иметь возможность обсуждать публикации и оставлять комментарии Вам необходимо зарегистрироваться!

Ответы и обсуждения


Ещё из "Наука, технологии":

Всё из "Наука, технологии"

Подписка на получение новостей по почте

E-mail адрес обязателен
Name is required