ChatGPT — это удивительный инструмент, который продолжает эволюционировать благодаря постоянным обновлениям от своей компании-разработчика, OpenAI. Одним из недавних нововведений стала функция памяти, позволяющая чат-боту запоминать важную для вас информацию.
Новая функция памяти: плюсы и минусы
Функция памяти предназначена для того, чтобы сделать взаимодействие с ChatGPT более персонализированным. Он может запомнить такие детали, как ваш возраст, пол, философские взгляды и другие предпочтения. Например, если вы сообщите, что являетесь вегетарианцем, в следующий раз при запросе рецептов он предложит только вегетарианские варианты.
Пользователь также может обучить ChatGPT запоминать определенные детали, такие как: «Запомни, что мне нравятся классические фильмы». В будущем чат-бот будет адаптировать свои рекомендации на основе этой информации. У вас есть полный контроль над памятью ChatGPT: вы можете сбросить ее, удалить отдельные воспоминания или отключить функцию в настройках.
Уязвимость в памяти ChatGPT
Однако недавно исследователь безопасности Иоганн Ребергер продемонстрировал, что память ChatGPT можно манипулировать, вызывая серьезные вопросы о конфиденциальности и безопасности. Он использовал метод, известный как косвенная инъекция запросов, чтобы заставить AI принимать ложную информацию.
В своем эксперименте Ребергер смог убедить ChatGPT, что определенный пользователь — 102-летний житель вымышленного места под названием «Матрица», который считает, что Земля имеет плоскую форму. После принятия этой вымышленной информации, AI продолжал сохранять ее для всех будущих чатов с этим пользователем. Такие ложные воспоминания можно было внедрить, используя инструменты, такие как Google Drive или Microsoft OneDrive, что создает возможности для хакеров.
Доказательства концепции и последствия
Ребергер представил доказательство концепции, показав, как он мог использовать уязвимость в приложении ChatGPT для macOS. Он продемонстрировал, что, обманув AI, заставив его открыть веб-ссылку с вредоносным изображением, он мог перехватывать все, что писал пользователь, и все ответы AI, отправляя их на сервер, который он контролировал.
Хотя этот метод не функционировал через веб-интерфейс ChatGPT благодаря API, внедренному OpenAI в прошлом году, уязвимость все еще оставалась в приложении для macOS. После того как Ребергер сообщил о находке OpenAI в мае, компания немедленно отреагировала, обеспечив, чтобы модель не следовала за ссылками, созданными в своих собственных ответах.
Меры по улучшению безопасности
OpenAI выпустила новый патч для приложения ChatGPT для macOS (версия 1.2024.247), который шифрует разговоры и устраняет уязвимость. Несмотря на это, необходимо оставаться бдительными в отношении потенциальных уязвимостей, связанных с манипуляцией памятью AI.
Компания подчеркивает, что инъекция запросов в крупных языковых моделях — это область продолжающегося исследования, и они постоянно работают над защитой от новых угроз.
Как защитить свои данные
С увеличением популярности технологий AI, таких как ChatGPT, важно следовать лучшим практикам кибербезопасности для защиты своей личной информации. Вот несколько советов:
- Регулярно проверяйте настройки конфиденциальности: Будьте в курсе того, какие данные собираются. Периодически проверяйте и настраивайте параметры конфиденциальности на платформах AI.
- Будьте осторожны с личной информацией: Избегайте раскрытия чувствительных данных, таких как полное имя и финансовая информация.
- Используйте надежные пароли: Создавайте пароли длиной не менее 12 символов, комбинируя буквы, цифры и символы.
- Включите двухфакторную аутентификацию (2FA): Это добавляет дополнительный уровень безопасности к вашим аккаунтам.
- Держите программное обеспечение обновленным: Регулярные обновления часто включают патчи безопасности.
- Имейте надежное антивирусное ПО: Защита от киберугроз становится все более важной.
- Регулярно контролируйте свои аккаунты: Часто проверяйте банковские выписки и онлайн-аккаунты на наличие необычной активности.
Итоги
Выводы Ребергера подчеркивают важность бдительности в условиях постоянно развивающихся технологий AI. Хотя OpenAI принимает меры для устранения возникших уязвимостей, пользователи должны быть внимательны к тому, как эти функции работают и как это может повлиять на их безопасность.