В современном мире искусственный интеллект становится неотъемлемой частью нашей жизни — от рекомендаций в онлайн-магазинах до систем диагностики в медицине и автономных автомобилей. Однако с развитием технологий возникает важный вопрос: кто несет ответственность за ошибки ИИ и их последствия?
Николай Турубар, директор по развитию digital-агентства Articul и председатель кластера РАЭК «Искусственный интеллект», делится своими мыслями о сложностях определения виновных в случаях, когда алгоритмы принимают ошибочные решения с серьезными последствиями. Он приводит примеры, которые наглядно демонстрируют опасность невнимательного подхода к ответственности. Среди них — рекомендации системы Watson for Oncology, которая предлагала опасные схемы лечения онкобольных, и трагический случай самоубийства подростка после общения с чат-ботом.
На первый взгляд, кажется очевидным: машина — не субъект, она не несет ответственности. ИИ — это всего лишь алгоритм, действующий по заданным инструкциям. Тогда кто же должен отвечать за его ошибки? Разработчики? Компании-владельцы? Или пользователи? Эти вопросы сегодня требуют четкого и понятного ответа.
Эксперт отмечает, что в некоторых случаях определить виновного проще — например, когда ошибка связана с некорректным обучением модели. Уже были судебные иски против таких компаний, как Equifax, из-за ошибок в кредитных рейтингах, и против Amazon за дискриминационные системы найма. Но зачастую нейросети работают "черными ящиками", и их логика принятия решений остается непонятной даже для создателей. Это создает правовой вакуум, в котором сложно установить ответственность.
«Мы создаем «черные ящики», но не готовы отвечать за их работу», — подчеркивает Турубар. Он задается вопросом: как оспорить отказ в кредите или ответственность за ДТП, если решения принимаются ИИ, а человек может лишь сказать: «так решил ИИ»? Кто будет нести ответственность, если автономный автомобиль собьет пешехода?
Решение, по мнению эксперта, должно быть двусторонним: технологическим и регуляторным. В технологической сфере необходимо развивать объяснимый ИИ (Explainable AI), который сможет объяснить причины своих решений. В регуляторной — создание строгих этических норм и сертификацию ИИ-систем по аналогии с авиацией или медициной. Уже существуют инициативы, такие как европейский регламент AI Act и российский Кодекс этики для ИИ, которые могут стать основой для формирования ответственного подхода.
Пока технологии не достигли уровня, когда последствия ошибок станут необратимыми, важно внедрять такие меры. Только совместными усилиями можно обеспечить безопасное и ответственное развитие искусственного интеллекта, защищая интересы общества и предотвращая трагические ситуации.
Фото: TASS/Axel Heimken