CityHost.UA
Помощь и поддержка

Безопасный диалог с ChatGPT: о чем не стоит говорить с искусственным интеллектом

 74
27.08.2025
article

 

 

Искусственный интеллект уже давно стал для нас не просто инструментом для написания текстов и получения быстрых ответов на вопросы. Для многих он помощник в работе, медик, модный советник, друг, любовник, психолог, которому доверяют такую ​​информацию, которую не доверяют больше никому.

Но не все можно писать в текстовое поле ChatGPT — на какие-то вопросы вы просто не получите ответа, а какие-то ваши запросы могут содержать информацию, которую лучше не отправлять в интернет-вселенную. Почему так?

Самое простое — прийти с этим вопросом к самой языковой модели. Она может лучше рассказать о том, какие имеет ограничения. Такие стоп-запросы можно классифицировать следующим образом:

  • вопросы, которые не следует задавать, чтобы не отдать персональные данные в чужие руки;
  • вопросы, на которые чат не может ответить без доступа к интернету;
  • вопросы, ответы на которые не следует использовать без проверки на правдивость;
  • вопросы, на которые чату запрещено отвечать.

ChatGPT и безопасность данных

Сам чат-бот утверждает, что не может шпионить и не собирает данные о вас, если вы говорите что-нибудь личное. Но мы не знаем, как собираются и используются данные на самом деле. Кроме того, киберпреступники постоянно ищут, как завладеть персональными данными, и платформы искусственного интеллекта тоже под прицелом. Поэтому стоило бы учитывать это и понимать, насколько вам комфортно делиться в цифровом пространстве по-настоящему личными вещами. Выбор здесь только за конкретным человеком.

Мы говорим с чат-ботом отчасти как с очень надежным собеседником. Он готов помочь в любом деле, подхватить какую-либо функцию, не осуждает.

Уже есть и конкретные кейсы, показывающие, что в ChatGPT данные могут быть незащищенными. Вот, например, кейс, когда сотрудники Samsung слили чату корпоративные данные. А вот случай, когда данные аккаунтов пользователей оказались в результатах выдачи других пользователей. Также зарегистрированы случаи продажи данных платных аккаунтов ИИ-платформ в даркнете.

Действительно ли ChatGPT защищает данные пользователей

Дело еще и в самой природе языковых моделей: они учатся, используя большой массив чужих текстов, картинок и других данных, и не различая, где обычная информация, а где чувствительная. К примеру, исследование Google показало, что к чат-боту реально обращаться так, чтобы «выманить» часть данных. Ученым из Университета Индианы удалось с помощью промптов извлечь из языковой модели личные данные 30 сотрудников The New York Times. Это было исследование, которое не имело преступной цели. К тому же часть персональных данных ИИ «вернул» некорректно, в частности, он был склонен галлюцинировать относительно длинных адресов и искривлять их.

Однако он все же выдал 80% правдивой информации, и если бы намерения исследователей были нечисты, они могли бы достичь своей цели по крайней мере частично. Поэтому следует воздержаться от вопросов, которые содержат чувствительную информацию.

Читайте также: Мошенники в Фейсбуке – как уберечь свою бизнес-страницу от кражи

Закрытые корпоративные данные

Некоторые компании ограничивают использование искусственного интеллекта на рабочем месте и/или разрабатывают собственные ИИ-платформы, чтобы защитить рабочие данные и одновременно использовать преимущества искусственного интеллекта в работе.

Следовательно, не стоит, особенно при использовании популярных ИИ, создавать запросы, которые содержат:

  • банковскую тайну;
  • коммерческую тайну;
  • платежные данные;
  • пароли;
  • доступ к конфиденциальной информации клиентов;
  • данные закрытых отчетов и так далее.

Персональные данные

О себе не стоит сообщать ИИ то же, что вы не сказали бы случайным людям во время общения:

  • медицинскую информацию;
  • банковскою информацию — данные карт, адрес проживания, пароли и пин-коды;
  • интеллектуальную собственность — если у вас есть какие-то идеи, которые подлежат патентованию, эту информацию следует использовать очень осторожно в переписках с чат-ботом;
  • персональные данные в целом;
  • контент личного характера — что угодно, что может вас скомпрометировать.

Все вопросы, которые содержат такую ​​информацию или намеки на нее — в ChatGPT задавать не стоит.

Может ли ChatGPT гуглить и как включить эту возможность

У нейросети нет прямого доступа в интернет, и она ограничена информацией до определенного времени. Поэтому есть некоторые вопросы, на которые она просто не может дать ответа, потому что не имеет его — особенно, если информация появилась в сети недавно и еще не попала в базу знаний.

Для того чтобы чат-бот видел интернет и актуальные данные, доступ нужно специально включать (попросить об этом, ясно сформулировав запрос). Здесь это касается только ChatGPT: некоторые другие модели, например Perplexity, тот же Grok, могут парсить интернет и находить ссылку или анализировать имеющуюся там информацию.

Может ли ChatGPT проверить информацию в интернете

Следовательно, если ответ на вопрос лежит вне имеющейся базы знаний, следует обратиться к другой модели или включить доступ в интернет, если это разрешено условиями использования.

Читайте также: Как правильно писать промпты для AI: учимся пользоваться искусственным интеллектом

Нужно ли следовать каждому совету ChatGPT

Сам ChatGPT может предоставлять любую информацию и советы юридического, медицинского и другого чувствительного характера, добавляя, что следует все же обратиться к специалисту.

Как мы уже говорили выше, языковые модели склонны к галлюцинациям, то есть они могут описать источник, методику, совет, факты, которых не существует. И если вы спрашиваете, как вылечить вашу болезнь, или готовитесь с помощью чат-бота к экзамену, обсуждаете законы, это нужно иметь в виду. Именно для таких случаев следует задавать уточняющие вопросы, переключаться на поиск в интернете и просить подборку источников, проверять то, что казалось правдивым. Чем критичнее для вас правильный ответ, чем больше последствий будет от его использования — тем более тщательно стоит проверять.

Неоднократно случались истории, когда пользователи слишком доверительно относились к советам чат-бота и сталкивались с неприятными последствиями. К примеру, можете прочитать историю, как недавно 60-летний мужчина попал в больницу с психическими расстройствами из-за того, что ChatGPT посоветовал ему употреблять бромид натрия вместо соли.

А вот еще одна история о том, как туристы в польских Татрах доверились советам чат-бота и их пришлось спасать. ИИ посоветовал им маршрут, вполне пригодный для прохождения летом, но опасный зимой из-за погодных условий. Люди застряли на перевале во время метели, и им пришлось вызвать спасателей.

Или вот, пожалуйста: женщина в Греции развелась с мужчиной после того, как ИИ предсказал, что тот будет изменять. Предсказание было сделано по кофейным узорам на чашке.

Кроме того, чтобы давать советы, ChatGPT может проводить анализ того, что вы делаете, но только если вы четко и очень исчерпывающе предоставили критерии оценки своих действий. Иначе он будет просто отвечать общими фразами или даже хвалить, как доброжелательный человек, но без конструктива. Впрочем, эти ответы также нужно «делить надвое» и тщательно проверять.

Читайте также: Триумф и угрозы искусственного интеллекта — как нейросети влияют на нашу жизнь и как они законодательно регулируются

На какие вопросы ChatGPT запрещено отвечать

Эта языковая модель имеет определенные нравственные ограничения. В частности, ChatGPT не может отвечать на вопросы:

  • о самоубийстве и самоповреждении, пытках, убийствах (не будет давать советов, как убить себя или другого человека, не будет участвовать в описании сцен жестокости с графическими деталями и тому подобное);
  • незаконную деятельность (например, как изготовить и распространить наркотики, взрывчатку, подделать документы и так далее). Если вдуматься, это делает ИИ (по крайней мере, этой модели) плохим помощником для авторов детективов;
  • с нарушением интимных границ — он не будет обсуждать сексуальное насилие, приставания, писать с вами очень откровенные сцены и так далее. Однако существуют другие модели, которые заточены быть виртуальными любовниками. И по отношении к ним следует иметь такое же предостережение, как по другим моделям: вы сообщаете им информацию очень личного характера;
  • личные данные других людей: если это не публичное лицо с открытыми данными для связи, чат-бот не будет давать советы, как найти человека, не будет обсуждать, как следить за кем-либо или получить персональные данные;
  • в модель встроены ограничения на враждебный язык и дискриминацию, а также на ответы на то, как распространять ненависть и пропаганду.

Впрочем, как мы видели на недавнем примере Grok в соцсети Х (бывший Twitter) — это условности: если у кого-то из разработчиков будет возможность и желание «подкрутить» настройки, все может надолго или ненадолго измениться.


Понравилась статья? Расскажите о ней друзьям:

Автор: Юлия Баткилина

Журналистка, IT-копирайтер, писательница.