Компания Anthropic анонсировала старт тестовых испытаний расширения Claude for Chrome, которое кардинально меняет принцип взаимодействия с ИИ-ассистентом. Новая разработка позволяет Claude не просто давать советы, а напрямую действовать в браузере: кликать по интерфейсу, заполнять веб-формы и выполнять комплексные задачи по поручению пользователя.
Как работает технология автономного ИИ?
В отличие стандартных чат-ботов, Claude получает возможность анализировать содержимое веб-страниц и взаимодействовать с элементами сайта в полуавтоматическом режиме. Внутри компании Anthropic уже применяют раннюю версию инструмента для:
-
Управления расписанием и планирования встреч в календарях.
-
Автоматизации составления и отправки email-ответов.
-
Обработки и систематизации финансовых отчетов.
-
Проведения функционального тестирования новых веб-сервисов.
Безопасность и контроль пользователя
Компания Anthropic подчеркивает, что пользователь сохраняет полный контроль над действиями ассистента. Вы можете в любой момент предоставлять или отзывать доступ к определённым сайтам. Для потенциально рискованных операций, таких как онлайн-покупки или публикация контента, Claude в обязательном порядке запросит подтверждение у пользователя.
Доступ к превью-версии расширения на текущем этапе предоставлен ограниченному кругу из 1000 подписчиков плана Claude Pro Max. Разработчики настоятельно рекомендуют использовать его только на проверенных сайтах и избегать работы с конфиденциальной финансовой, медицинской или юридической информацией.
Изменения в политике конфиденциальности Anthropic
С 28 сентября Anthropic вводит обновленные правила использования пользовательских данных. С этого дня информация из диалогов и сессий кодирования будет применяться для обучения следующих версий Claude. Срок хранения данных увеличивается до 5 лет.
Изменения затронут всех пользователей персональных тарифов, включая бесплатный аккаунт. Исключение составят корпоративные (Enterprise) и образовательные (Edu) подписки, а также данные, поступающие через API.
Согласие с обновленной политикой будет запрашиваться через всплывающее окно. Опция использования данных будет активирована по умолчанию, однако пользователь сможет отключить ее в настройках в любой момент. Важно: это изменение не повлияет на информацию, собранную до момента отключения функции.
Anthropic и OpenAI провели исследования безопасности ИИ
В прецедентном для отрасли событии две ведущие AI-компании, Anthropic и OpenAI, организовали взаимный аудит систем безопасности своих флагманских моделей. Это первый масштабный эксперимент по перекрестному тестированию рисков искусственного интеллекта.
Основной фокус исследований был направлен на изучение склонности моделей к "галлюцинациям" (генерации ложной информации) и "несоответствиям" (ситуациям, когда поведение ИИ отклоняется от заложенных разработчиками норм).
Тестирование проводилось до анонса GPT-5 от OpenAI и выхода обновления Claude Opus 4.1 от Anthropic, что позволяет считать его результаты объективными для предыдущего поколения моделей.
