ЖЖ » Новини » Інтернет і Технології » 2024 Февраль 20 » 18:36:29 |
Оскільки генеративний текстовий чат-бот OpenAI стрімко збільшує свою популярність за останні пів року, ризики, пов’язані з навчанням системи на даних, отриманих з інтернету і безпекою персональних даних, стали більш очевидними.
Тож WIRED розписав інструкцію, як саме видалити інформацію про себе з бази ChatGPT, та як заборонити нейромережі використовувати ваші розмови в подальшому навчанні.
Коли люди експериментували з чат-ботом, ставлячи йому запитання про своє життя та друзів, з’явився ряд потенційних проблем. OpenAI попереджає, що ChatGPT може надавати неточну інформацію — нейромережа все вигадувала фальшиві газетні статті, невірні твердження про те, що професор права був залучений у скандал із сексуальними домаганнями, а мер Австралії був замішаний у скандалі з хабарництвом.
Крім того, як окремі люди, так і великі корпорації стурбовані тим, як використовуються дані. Наприклад Samsung заборонила своїм співробітникам використовувати генеративні інструменти штучного інтелекту через побоювання щодо того, як дані зберігаються на зовнішніх серверах, і через ризик того, що секрети компанії в решті решт можуть бути розкриті іншим користувачам.
OpenAI каже, що його великі мовні моделі навчаються на трьох джерелах інформації: дані, отримані з інтернету, дані, які компанія ліцензує в інших, і інформація, яку люди передають їй через чати. Це може включати інформацію про окремих осіб. «Велика кількість даних в інтернеті стосується людей, тому наша навчальна інформація випадково включає особисту інформацію», — пояснює OpenAI
Зараз OpenAI запровадив форму запиту на видалення персональних даних, яка дозволяє людям — переважно в Європі, але також і в Японії — попросити видалити інформацію про них із систем OpenAI.
Схоже, що ця форма в першу чергу призначена для запиту на видалення інформації з відповідей, які ChatGPT надає користувачам, а не з навчальних даних. Для видалення потрібно:
OpenAI зазначає, що не в усіх випадках може видаляти дані. Компанія заявляє, що при прийнятті рішень щодо запитів людей на видалення збалансує «конфіденційність і свободу вираження поглядів».
Ви повинні бути обережними щодо того, що ви говорите ChatGPT, особливо враховуючи обмежені можливості OpenAI щодо видалення даних. Розмови, які ви ведете з ChatGPT, за замовчуванням можуть використовуватися OpenAI у своїх майбутніх великих мовних моделях як навчальні дані. Це означає, що інформація може, принаймні теоретично, бути відтворена у відповідь на майбутні запитання людей.
25 квітня компанія представила нове налаштування, яке дозволяє будь-кому зупинити цей процес, незалежно від країни в якій знаходяться користувач. Для цього необхідно:
OpenAI каже, що вимикання історії чату означає, що дані, які ви вводите в розмовах, «не використовуватимуться для навчання та вдосконалення наших моделей». У результаті все, що ви вводите в ChatGPT, як-от інформація про себе, своє життя та роботу, не повинно відображатися в майбутніх ітераціях великих мовних моделей OpenAI.