
- ChatGPT і безпека даних
- Чи може ChatGPT гуглити та як увімкнути цю можливість
- Чи кожна порада ChatGPT варта виконання
- На які питання ChatGPT заборонено відповідати
Штучний інтелект уже давно став для нас не просто інструментом для написання текстів та отримання швидких відповідей на запитання. Для багатьох він — помічник у роботі, медик, модний радник, друг, коханець, психолог, якому довіряють таку інформацію, яку не довіряють більше нікому.
Але не все можна писати в текстове поле ChatGPT — на якісь питання ви просто не отримаєте відповіді, а якісь ваші запити можуть містити інформацію, яку краще не відправляти в інтернет-всесвіт. Чому так?
Найпростіше — прийти з цим питанням до самої мовної моделі. Вона може краще розповісти про те, які має обмеження. Такі стоп-запити можна класифікувати так:
- питання, які не варто ставити, щоб не віддати персональні дані в чужі руки;
- питання, на які чат не може дати відповіді без доступу до інтернету;
- питання, відповіді на які не варто використовувати без перевірки на правдивість;
- питання, на які чату заборонено відповідати.
ChatGPT і безпека даних
Сам чат-бот стверджує, що не може шпигувати та не збирає дані про вас, якщо ви кажете щось особисте. Але ми не знаємо, як збираються і використовуються дані насправді. Крім того, кіберзлочинці постійно шукають, як заволодіти персональними даними, і платформи штучного інтелекту теж під прицілом. Тому варто було б враховувати це, і розуміти, наскільки вам комфортно ділитися в цифровому просторі по-справжньому особистими речами. Вибір тут лише за конкретною людиною.
Ми говоримо з чат-ботом почасти як з дуже надійним співрозмовником. Він готовий допомогти у будь-якій справі, підхопити будь-яку функцію, не засуджує.
Уже існують і конкретні кейси, які показують, що в ChatGPT дані можуть бути незахищеними. Ось, наприклад, кейс, коли співробітники Samsung злили чату корпоративні дані. А ось випадок, коли дані акаунтів користувачів опинилися у результатах видачі інших користувачів. Також зареєстровані випадки продажу даних платних акаунтів ШІ-платформ у даркнеті.
Справа ще й у самій природі мовних моделей: вони навчаються, використовуючи великий масив чужих текстів, картинок та інших даних, і не розрізняючи, де звичайна інформація, а де — чутлива. Наприклад, дослідження Google показало, що до чат-бота реально звертатися так, щоб «виманити» частину навчальних даних. Вченим з Університету Індіани вдалося за допомогою промптів витягнути з мовної моделі особисті дані 30 співробітників The New York Times. Це було дослідження, що не мало злочинної мети. До того ж частину персональних даних ШІ «повернув» некоректно, зокрема він був схильний галюцинувати щодо довгих адрес і викривлювати їх.
Проте він все ж таки видав 80% правдивої інформації, і якби наміри дослідників були нечисті, вони могли б досягти своєї цілі принаймні частково. Тому варто утриматися від питань, що містять чутливу інформацію.
Читайте також: Шахраї у Фейсбуці — як вберегти свою бізнес-сторінку від крадіжки
Закриті корпоративні дані
Деякі компанії обмежують використання штучного інтелекту на робочому місці та/або розробляють власні ШІ-платформи, щоб захистити робочі дані й водночас користуватися перевагами штучного інтелекту в роботі.
Отже, не варто, особливо при використанні відомих ШІ, створювати запити, що містять:
- банківську таємницю;
- комерційну таємницю;
- платіжні дані;
- паролі;
- доступи до конфіденційної інформації клієнтів;
- дані закритих звітів тощо.
Персональні дані
Про себе не варто повідомляти ШІ те саме, що ви не сказали б випадковим людям під час спілкування:
- медичну інформацію;
- банківську інформацію — дані карток, адресу проживання, паролі та пін-коди;
- інтелектуальну власність — якщо у вас є якісь ідеї, щось, що підлягає патентуванню, цю інформацію варто використовувати дуже обережно в переписках з чат-ботом;
- персональні дані загалом;
- контент особистого характеру — будь-що, що може вас скомпрометувати.
Всі запитання, що містять таку інформацію або натяки на неї — у ChatGPT ставити не варто.
Чи може ChatGPT гуглити та як увімкнути цю можливість
У нейромережі немає прямого доступу в інтернет, і вона обмежена інформацією до певного часу. Тому є деякі питання, на які вона просто не може дати відповіді, бо не має її — особливо, якщо інформація з’явилася в мережі нещодавно і ще не потрапила в базу знань.
Для того, щоб чат-бот бачив інтернет і актуальні дані, доступ треба спеціально вмикати (попросити про це, ясно сформулювавши запит). Тут це стосується лише ChatGPT: деякі інші моделі, наприклад, Perplexity, той же Grok, початково можуть парсити інтернет і знаходити посилання або аналізувати наявну там інформацію.
Отже, якщо відповідь на питання лежить поза наявною базою знань, варто звернутися до іншої моделі або увімкнути доступ в інтернет, якщо це дозволено умовами використання.
Читайте також: Як правильно писати промпти для AI: вчимося користуватися штучним інтелектом
Чи кожна порада ChatGPT варта виконання
Сам ChatGPT може надавати будь-яку інформацію і поради юридичного, медичного та іншого чутливого характеру, додаючи, що варто все ж звернутися до спеціаліста.
Як ми вже казали вище, мовні моделі схильні до галюцинацій — тобто вони можуть описати джерело, методику, пораду, факти, яких не існує. І якщо ви питаєте, як вилікувати вашу хворобу, або готуєтеся за допомогою чат-боту до іспиту, обговорюєте закони, це треба мати на увазі. Саме для таких випадків варто ставити уточнювальні питання, перемикатися на пошук в інтернеті та просити добірку джерел, перевіряти те, що видалося правдивим. Що більш критичною є для вас правильна відповідь, що більше наслідків буде у її використання — то ретельніше варто перевіряти.
Неодноразово траплялися історії, коли користувачі занадто довірливо ставилися до порад чат-бота і стикали з неприємними наслідками. Наприклад, можете прочитати історію, як нещодавно 60-річний чоловік потрапив до лікарні з психічними розладами через те, що ChatGPT порадив йому вживати бромід натрію замість солі.
А ось ще одна історія про те, як туристи в польських Татрах довірилися порадам чат-бота і їх довелося рятувати. ШІ порадив їм маршрут, який цілком придатний для проходження влітку, але небезпечний взимку через погодні умови. Люди застрягли на перевалі під час хуртовини, і їм довелося викликати рятувальників.
Або ось, будь ласка: жінка в Греції розлучилася з чоловіком після того, як ШІ передбачив, що той буде зраджувати. Передбачення було здійснене по кавових візерунках на чашці.
Крім того, щоб давати поради, ChatGPT може проводити аналіз того, що ви робите, але тільки якщо ви чітко і дуже вичерпно надали критерії оцінки своїх дій. Інакше він буде просто відповідати загальними фразами чи навіть хвалити, як доброзичлива людина, але без конструктиву. Втім, ці відповіді також потрібно «ділити надвоє» і ретельно перевіряти.
Читайте також: Тріумф та загрози штучного інтелекту — як нейромережі впливають на наше життя і як вони законодавчо регулюються
На які питання ChatGPT заборонено відповідати
Ця мовна модель має певні етичні обмеження. Зокрема, ChatGPT не може відповідати на питання:
- про самогубство і самоушкодження, тортури, убивства (не буде давати порад, як вбити себе чи іншу людину, не буде брати участі в описі сцен жорстокості з графічними деталями тощо);
- незаконну діяльність (наприклад, як виготовити та поширити наркотики, вибухівку, підробити документи тощо). Якщо вдуматися, це робить ШІ (принаймні цієї моделі) поганим помічником для авторів детективів;
- з порушенням інтимних кордонів — він не буде обговорювати сексуальне насильство, домагання, писати з вами дуже відверті сцени тощо. Проте існують інші моделі, які заточені бути віртуальними коханцями. І щодо них слід мати таку саму пересторогу, як щодо інших моделей: ви повідомляєте їм інформацію дуже особистого характеру;
- особисті дані інших людей: якщо це не публічна особа з відкритими даними для зв’язку, чат-бот не буде давати порад, як знайти людину, не обговорюватиме, як стежити за кимось або здобути персональні дані;
- в модель вбудовані обмеження на мову ворожнечі і дискримінацію, а також на відповіді про те, як поширювати ненависть і пропаганду.
Втім, як ми бачили на нещодавньому прикладі Grok в соцмережі Х (колишній Twitter) — це умовності: якщо хтось із розробників матиме змогу і бажання «підкрутити» налаштування, все може надовго чи ненадовго змінитися.