Искусственный интеллект постепенно захватывает все сферы жизнедеятельности человека, именно захватывает, потому что в некоторых случаях это происходит против нашей воли.
Искусственный интеллект (ИИ), призванный максимально упростить поставленные перед человечеством задачи и создать комфортные условия для жизни, нейтрален лишь на первый взгляд. На самом деле местами ИИ усложняет жизнь людей, более того, таит в себе опасность. Об этом редактор информационного сайта Minval.az Рамелла Ибрагимхалилова написала в статье для юридического издания INJURIA.
Возьмем, например, такие с виду простые ситуации, когда умная навигационная система помогает избежать пробок на дороге или когда человек получает целевую рекламу от проверенных магазинов в результате анализа большого объема данных, используемого ИИ. Кажется, что в этом есть только польза, однако общество не замечает этическую и правовую сторону стоящих за ними сбора и анализа данных.
Если ИИ станет играть слишком большую роль в жизни граждан Азербайджана, а судя по всему, так оно и будет, это создаст различные проблемы для людей и часто будет сопровождаться ограничениями прав человека.
С некоторыми негативными последствиями ИИ мы сталкиваемся уже сегодня в нашей повседневной жизни.
Как известно, технологии ИИ применяются в проектах электронного правительства Азербайджана. Суть электронного правительства заключается в том, что оно дает возможность органам государственной власти минимизировать личное взаимодействие с гражданами и организациями, все отношения осуществляются в электронном формате. Электронное правительство базируется на системе электронного документооборота, системах автоматизации управления государством и других информационных системах.
А в настоящее время Азербайджан принимает активное участие для подготовки правовой базы для применения ИИ. Более того, внедрение цифровых технологий в отрасли госуправления является важной задачей на сегодняшний день.
Перспективы и преимущества данного новшества очевидны и неоспоримы. Однако есть и недостатки, над устранением которых следует серьезно поработать юристам и в целом законодателям.
В качестве примера ограничения прав граждан со стороны ИИ в электронном правительстве можно привести недоработанное программное обеспечение Министерства образования по части онлайн-приема в средние школы. Уже второй год родители испытывают большие трудности с определением детей в школы по месту регистрации и проживания. Прием в первый класс осуществляется через онлайн-регистрацию, а альтернативных вариантов нет.
Принцип онлайн-приема заключается в том, что родителям объявляются дата и время начала приема в школу и, соответственно, взрослые стоят на старте, чтобы войти в систему через şəxsi kabinet и зарегистрировать своего ребенка. Однако на определенном этапе регистрации система показывает, что места заполнены и, вообще, прием в школы возможен, если есть приоритет, который нужно обязательно обозначить – это обучение в данном учреждении брата или сестры, либо один из родителей, работающий в этой школе педагогом.
Допустим, ребенок в семье единственный и родитель в школе не работает, это означает, что ребенок в школу не пойдет, потому что он по критериям не подходит? А еще, означает ли это, что ребенок останется за бортом «школьного корабля», если в учебном заведении для него не осталось места?
И наконец, третий вопрос: «Нет в доме, где проживает ребенок, интернета, компьютера. Произошло форс-мажорное обстоятельство, и родители не смогли вовремя определиться со школой. Ребенок не должен учиться в школе?! Как такое может быть?
Почему в минобразования не предусмотрели последствий, которые могут возникнуть при онлайн-приеме, полностью положились на ИИ, лишающий ребенка конституционного права на получение образования, и не предусмотрели альтернативные пути решения?
Интересно, что и сами сотрудники министерства не могут разобраться с программой онлайн-приема, когда к ним за помощью обращаются родители. Не помогает и «Горячая линия-146». В результате тысячи детей и их родителей переживают стресс, тратят немалые нервы, время и усилия на решение, казалось бы, такого простого вопроса.
А раньше подобных проблем не наблюдалось. Не должен и не может прием в школу быть проблемой, тем более, в век цифровых технологий – это абсурд.
Противоречие между преимуществами технологий ИИ и ограничениями прав человека особенно проявляется в сфере неприкосновенности частной жизни. Право на неприкосновенность частной жизни — основополагающее право человека. Однако в цифровом пространстве, в том числе при использовании приложений и соцсетей, накапливается огромное количество персональных данных, которые могут быть использованы для создания нашего профиля и предсказания нашего поведения. Мы сообщаем информацию о своем здоровье, политических убеждениях, семейной жизни, даже не зная, кто будет пользоваться этими данными, с какой целью и каким образом.
Ведь машины работают так, как их запрограммировали люди. Если в систему введены (осознанно или случайно) алгоритмы, включающие в себя человеческие предубеждения, такая система неизбежно будет их повторять. Главные опасения внушает отсутствие в системах ИИ разнообразия и инклюзии: вместо того, чтобы делать наши решения более объективными, они могут укреплять дискриминацию и предрассудки. Появляется все больше подтверждений того, что алгоритмы работы, основанные на предубеждениях, дискриминируют женщин, представителей этнических меньшинств, людей с инвалидностью и так далее.
Если в принимаемых решениях слепо руководствоваться теми результатами, которые выдают искаженные алгоритмы, это может серьезно сказаться на правах человека.
Другое право, которое оказывается под угрозой, это право на свободу выражения мнений. В Facebook и на YouTube действуют механизмы фильтрации для выявления экстремистского содержания с призывами к насилию. Однако нет никакой информации о том, какие процедуры и критерии применяются для определения такого контента, а также о том, в каких видеороликах присутствует «явно незаконное содержание». Хотя сама по себе инициатива пресекать распространение подобных материалов похвальна, непрозрачность модерации контента вызывает тревогу, поскольку она несет в себе риски ограничений законного права на свободу слова и выражение мнения.
Аналогичные опасения высказывались в отношении автоматической фильтрации пользовательского контента при его загрузке в связи с предполагаемым нарушением прав интеллектуальной собственности. В некоторых случаях использование автоматических технологий для распространения информации может также существенно задеть право на свободу выражения мнения и неприкосновенность частной жизни.
Здесь в качестве примера можно привести случаи, когда Facebook блокировал пользователей только за то, что они применили в комментариях такие слова, как «Азер», «гомосек» и шуточное «убил меня». Система идентификации потенциально опасного контента сочла эти слова неуместными и угрожающими интересам сообщества, и как следствие этого временно заблокировала пользователей, и тем самым ограничила их права. Тогда как ИИ не догадался, что «Азер» — это не оскорбление, а имя, а «убил меня» — не угроза, а выражение, синонимичное «рассмешил меня». Оно и понятно, ведь эту систему выводил иностранец, не знакомый с лексическими особенностями того или иного региона.
Конфликт между технологиями и правами человека также проявляется и в области распознавания лиц. Будучи сильным инструментом для розыска предполагаемых преступников, он может превратиться и в средство контроля людей. В наше время государствам стало легко следить за людьми, вторгаться в их частную жизнь, ограничивать свободу собраний, свободу передвижения и любую другую свободу.
Поэтому чрезвычайно важно нащупать верный баланс между технологическим развитием и защитой прав человека, ведь от этого будет зависеть будущее общества, в котором мы хотим жить.
Для достижения такого баланса требуется более тесное сотрудничество между органами государственной власти, академическим сообществом, организациями, юристами и обществом в целом. Задача сложная, но выполнимая.
Государство должно больше вкладывать в просвещение и образовательные инициативы, повышать компетентность всех своих граждан и особенно подрастающего поколения, чтобы они получали положительный опыт использования ИИ и лучше понимали, как он влияет на нашу жизнь. А перед правоохранителями должна быть поставлена задача — противостоять новым видам дискриминации, проистекающей из применения ИИ, и защитить от них граждан.
Необходимо четкое правовое регулирование в данной области. Однако существующее законодательство столь несовершенно, а правовые формулировки шатки и ненадёжны настолько, что высококвалифицированным юристам страны в самую пору рассмотреть материалы исследования не только как свежий взгляд со стороны на сугубо юридические вопросы, но и попытаться осмыслить возможные практические последствия результатов исследования как в свете изменения закона, так и в разрезе судебной практики.
Следует осознать, насколько тонок и ненадежен правовой лед, на который мы ступаем, отдавая себя в зависимость искусственному интеллекту. Адвокаты и юристы могли бы бить тревогу по поводу несовершенства законодательства, собирать конференции для обсуждения этой проблемы, и объяснять прессе суть сгущающейся над нами опасности. Нельзя всецело доверять ИИ жизнь граждан страны.
И смех и грех ! Автор тонко передергивает карты, обвиняя ИИ, в том что он не делал. Во первых нынешние ИИ трудно назвать полноценным искусственным интеллектом, так как он работает исключительно по тем программам, которые заложены Человеком в его память, то есть он применяет их исклютельно в тех рамках действий, которые имеются в его памяти. Во вторых, эти ИИ полностью не самостоятельны в своих действиях, так как ограниченны программой. Ярким примером может служить система управления дорожно-транспортным движением в Баку, которая практически оказалась мыльным пузырем, которая не может регулировать поток автомобилей, из за отсутствия полноценной программы. Отсюда простой и логичный вывод — виноват не ИИ, а та программа, заложенна в нем, то есть Человек создавший эту программу ! И последнее о чем хотел бы напомнить автору, как говорится ближайшее будущее за ИИ, которые будут решать проблемы, обрабатывая огромные массивы данных и принимая необходимые меры, хотим этого мы или нет ! Винить ИИ в нарушении прав человека и ограничения его свобод, это очередная фикция, так как говорится : » Что посеешь, то и пожнешь » ! Ничего личного, только констатация фактов !