Ru

МФТИ участвует в международной дискуссии о регулировании ИИ

9 Июля 2020 274
Искусственный интеллект становится неотъемлемой составляющей информационной экосистемы во всем мире, поэтому все чаще обсуждается необходимость определить принципиальные основы использования технологий ИИ в интересах долгосрочного устойчивого развития человека, общества и государства. Работа в этом направлении даже во время действия ограничений, связанных с пандемией, продолжается – в том числе с помощью современных технологий коммуникации. Так, в течение нескольких дней состоялось несколько крупных международных форумов, где обсуждались вопросы правового регулирования, стандартизации и этики в сфере ИИ. В качестве эксперта и спикера в них принял участие Андрей Кулешов, главный аналитик ЦК НТИ «Искусственный интеллект» МФТИ по вопросам международного сотрудничества и координации.

screen_shot_skoltech_trustworthy_ai.png

Конференция Trustworthy AI – организатор SkolTech, 1-3 июля 2020 г.

Конференция по устойчивости, прозрачности и надежности ИИ прошла впервые и объединила ученых из различных областей для решения проблем надежности и безопасности использования технологий на основе ИИ в практических приложениях (см. изображение). Помимо технических и научных аспектов уделялось большое внимание вопросам стандартизации и верификации ИИ-решений, этическим рискам и вновь возникающим вызовам.
Выступление представителя Центра прошло в рамках сессии «Глобальные аспекты ИИ» и было посвящено этической стороне внедрения технологий ИИ в различные приложения. 

Основные тезисы доклада:

Технология, не соответствующая этическим критериям, принятым в обществе, вероятно, столкнется с долгим и проблемным процессом внедрения. Однако сами по себе системы ИИ не имеют естественного этического наполнения и приобретают его через решения разработчиков и пользователей. Поэтому кодификация этических норм в виде правил профессиональной ответственности (в перспективе, профессиональной сертификации) при реализации систем ИИ в конечном счете упростит внедрение ИИ. 

Страница мероприятия  

Ad-Hoc Committee on AI (CAHAI) – организатор COUNCIL OF EUROPE, 2-ое заседание, 6-8 июля 2020 г.

В работе группы экспертов по ИИ приняли участие специалисты Сколтеха и МФТИ. Было отмечено, что международное регулирование должно укреплять доверие к технологии и защищать интересы человека, общества и государства. При этом было указано, что преждевременное регулирование в инновационной отрасли станет препятствием для инноваций и может привести к доминированию крупных корпораций.

Эксперты также отметили, что доверие общества к ИИ зависит от соблюдения принятых норм поведения системами, использующими технологии ИИ. Наделение систем ИИ таким «поведением» зависит от решений, принимаемых людьми при их разработке, внедрении и использовании. Поэтому первым шагом в регулировании ИИ без ущерба для инноваций может стать кодификация ответственного поведения участников разработки и внедрения систем ИИ. Такая кодификация может быть адаптирована к специфике конкретных приложений ИИ, и может разрабатываться индустрией при поддержке государства. В частности, в дискуссии о формировании правовой базы ИИ от российской делегации были выдвинуты предложения о введении т.н. кодификации ответственного поведения участников разработки и внедрения систем ИИ. Такая кодификация может быть адаптирована к специфике конкретных приложений ИИ и может разрабатываться индустрией при поддержке государства.

Более подробно о мероприятии - https://www.coe.int/en/web/artificial-intelligence/cahai
 
Дискуссия «The Rise of Artificial Intelligence & How it will Reshape the Future of Free Speech» – организатор Организация по безопасности и сотрудничеству в Европе, 8 июля 2020 г.

Мероприятие собрало около 150 участников, включая экспертов из государств-участников, представителей гражданского общества, академических кругов, индустрии и других заинтересованных сторон, чтобы создать условия для интерактивных дискуссий на тему влияния ИИ на свободу слова.

Доклад А. Кулешова был посвящен вопросам модерации контента с использованием ИИ. В качестве примеров подобных решений были описаны технические возможности библиотеки DeepPavlov и платформы Topic Net, которые разрабатываются в рамках Центра компетенций НТИ «Искусственный интеллект». Помимо этого, затрагивались вопросы этичного использования ИИ и необходимости создания единых правил модерации информации, предназначенной для публикации.

В частности, было отмечено, что нужно проявлять т.н. «здоровый скептицизм» в вопросах использования технологий ИИ для модерации интернет контента. Это связано с тем, что в настоящий момент сложность информационной среды со множеством различных, взаимосвязанных и влияющих друг на друга участников намного превосходит сложность систем, считающихся системами ИИ. Это, в свою очередь, означает, что любая модерация, основанная на технологиях ИИ, в настоящее время упрощает сложность реального обсуждения до уровня, совместимого с возможностями модерирующей системы. Поскольку возможности системы ИИ, в конечном счете, зависят от решений авторов системы, намеренная или ненамеренная предвзятость, отражающая предпочтения авторов, является неизбежной на текущем уровне технологического развития.

Также было отмечено, что некоторые из проектов, разрабатываемых в МФТИ (TopicNet) обеспечивают решение если не всех, то многих вопросов, связанных с привнесением предвзятости человека в модерацию новостного потока. Дальнейшие разработки этих технологий могут помочь предотвратить катастрофические последствия ошибочной модерации для общества.

В этой связи было внесено предложение сфокусировать работу по обеспечению свободы слова при модерации системами ИИ, на кодексах поведения для людей, участвующих в разработке и использовании систем ИИ.

ai_expert_andrey_kuleshov_mipt_2.pngАндрей Кулешов, эксперт в области международного сотрудничества и координации ЦК НТИ «Искусственный интеллект» МФТИ, член Технического комитета НТИ по стандартизации №164 «Искусственный интеллект»:

«Реализованный в МФТИ проект TopicNet представляет новое поколение решений ИИ для понимания естественного языка. Тематическая сеть уменьшает предвзятость при модерировании новостного контента, что способствует свободе слова. При этом пользователь информации может быть единственным человеком, чья предвзятость влияет на модерацию».