
Італійський регулятор із захисту даних оштрафував OpenAI на 15 мільйонів євро за порушення правил GDPR при обробці персональних даних в ChatGPT.
Штраф був накладений в основному за використання персональних даних для навчання моделей штучного інтелекту без належних правових підстав, порушення принципу прозорості та надання недостатньої інформації користувачам. Також було встановлено, що OpenAI не мав механізму перевірки віку, що становило ризик для дітей віком до 13 років. Цей інцидент стався після витоку даних у березні 2023 року, про який компанія не повідомила регулятору. Крім штрафу, компанія зобов’язана провести шестимісячну медіа-кампанію з роз’ясненням принципів роботи ChatGPT, включаючи типи зібраних даних та права користувачів на обробку інформації.
OpenAI заявила, що рішення було непропорційним і буде оскаржене, оскільки штраф у 20 разів перевищує виручку компанії в Італії за відповідний період. У той же час в Європі обговорюються нові керівні принципи поводження з персональними даними у сфері штучного інтелекту.
У березні 2023 року Італія стала першою країною, яка тимчасово заборонила роботу ChatGPT через побоювання щодо захисту даних. Доступ до сервісу було відновлено через місяць після усунення деяких порушень. Європейська рада із захисту даних (EDPB) надає рекомендації щодо обробки даних ШІ і заявляє, що GDPR не поширюється на анонімізовані дані після навчання моделі.
Цей кейс показує, що країни ЄС також посилюють вимоги щодо захисту даних для великих високотехнологічних компаній, таких як OpenAI. Він також підкреслює важливість прозорості у використанні персональних даних у штучному інтелекті.