Ви дізнаєтесь: хто буде відповідальний за збитки, спричинені помилками ШІ; Чи існує розподіл відповідальності між розробниками, користувачами та іншими зацікавленими сторонами; Розглянемо механізми захисту себе від відповідальності та які законодавчі норми застосовуються в вищезазначених випадках.
Життя стає легше, все більше і більше задач ми можемо делегувати ШІ. Здається, що майбутнє настало прямо зараз. Але чи так все легко та “солодко”?
ШІ розвивається та стає більш доступним для нас. Тепер за його допомогою можна робити майже все: від створення вебсайту без знань у програмуванні до втручання у складні системи за допомогою створеного віруса. Те, що ще декілька років тому здавалось нереальним – вже ось перед нами у вкладці браузера.
ШІ можна описати як комплексну систему, яка включає програмний код та базу даних. Для їх взаємодії існують алгоритми, котрі аналізують інформацію та виконують обробку даних, здійснюючи функції, схожі на людські розумові процеси, такі як визначення мови, розпізнавання образів та прийняття рішень.
Але ШІ не може працювати у вакуумі, він існує на основі бази даних. Саме ці бази слугують джерелом інформації для навчання ШІ. Завдяки цьому система адаптується та вдосконалюється з часом.
Якщо ви думаєте, що до не використовували ШІ, бо ніколи не звертались до таких сервісів – здивую вас: штучний інтелект є всюди.
У фінансовому секторі, у соціальних мережах, рекламі, дослідженнях та техніці, та навіть у вашому смартфоні.
Коли ви розблоковуєте телефон за допомогою ідентифікатора обличчя або використовуєте розпізнавання мовлення, ви спілкуєтеся ні з чим іншим як з ШІ.
А тепер сюрприз: належного юридичного регулювання немає, воно тільки започатковується. Якщо зараз у вас виникло питання: а про що ми будемо тоді говорити у цій статті? Не хвилюйтесь, обговорити тут дісно є що.
Законодавчо ШІ не врегульований, а отже у такому випадку ми діємо за принципом все що не заборонено – дозволено!
Така собі вседозволеність, при цьому важливо розуміти, що закон зворотної сили не має, це означає, що будь-який новий прийнятий закон на дії минулого – не поширюється. Тобто не можна покарати за дії, котрі в минулому були законодавчо дозволені, а у моменті підпали під регулювання.
Але все ж таки ШІ не існує у законодавчому вакуумі, а тому за загальним розумінням за дії ШІ відповідальність будуть нести ті, хто створює, впроваджує та використовує ці системи.
Юридично визначено, що відповідальність лежить на розробниках за принципом продуктової відповідальності. Якщо виявлено, що шкода викликана через дефекти у продукті, саме розробник є відповідальним.
Важливо зрозуміти, що використання штучного інтелекту також тягне за собою права, обов’язки та відповідальність. Але через недосконалість закону саме у питаннях пов’заних з використанням ШІ багато питань залишаються без відповідей та вирішуються за аналогією з іншими подібними правовідносинами.
Для того, щоб ви зрозуміли про що йде мова ось приклад:
Власники автомобілів Tesla часто намагаються перекласти відповідальність на компанію під час аварій, коли вони використовували систему Автопілот. Тобто вони намагаються перекласти відповідальність за шкоду спричинену діями ШІ на власне розробників цього ШІ (у даному випадку автопілота).
Тут виникає ситуація, коли нормативно-правове регулювання відсутнє, а сама ситуація вже існує. Є декілька можливих причинно-наслідкових зв’язків, котрі можуть спровокувати цю ситуацію: недоліки самої програми; некоректне використання автопілоту водієм; втручання третіх осіб, які, наприклад, зламали та пошкодили програму або внесли в неї певні зміни та, відповідно, вина таких осіб.
Чи працює це? Через сформовану судову практику у США і гарних юристів компанія Tesla часто перемагає у судах під час таких справ.
Чому? Їхні головні аргументи є цілком логічними – водії повинні завжди звертати увагу під час використання автопілота і бути готовими взяти керування на себе. (по суті ці застереження звертаються до основних правил дорожнього руху, котрі ніяк не перестають діяти з використанням автопілота, а навпаки тільки це підсилює)
Доречі, автомобілі з активованим автопілотом мають меншу частоту аварій порівняно з тими, що керуються водіями без такої системи.
Важливо розуміти, що користувачі цих систем мають свою частку відповідальності під час їх використання, особливо якщо вони ігнорують виробничі рекомендації чи використовують продукт не за призначенням. Саме у таких випадках компанія “омиває руки” – використовували неправильно, які можуть бути претензії? Адже в правилах усе прописано.
Уявімо, що хтось використовує штучний інтелект для створення і розповсюдження фальшивих новин або шахрайських повідомлень. У цей же час технологія призначена для генерування текстів для освітніх цілей, використання її для обману є явним зловживанням.
У такому разі, відповідальність лягає на користувача, який зловживає технологією, а також на тих, хто ігнорував закони і етичні норми при використанні штучного інтелекту.
Компанії, що розробляють штучний інтелект навіть можуть бути зобов’язані видавати користувацькі дані правоохоронним органам на основі законних запитів, що включають переписку та іншу інформацію, пов’язану з користувачами. Бо як я вже казала раніше, ШІ не існує у законодавчому вакуумі, а тому усі інші закони не припиняють свою дію під час його використання.
Виробники та розробники, в більшості випадків, вважаються основними відповідальними сторонами. Вони мають основний обов’язок забезпечити надійність та безпеку системи штучного інтелекту.
При цьому користувачі не мають використувавти ШІ всупереч існуючим законам і так само можуть бути притягнуті до відповідальності за шахарайські дії пов’язані з використанням ШІ.