Ростовский областной комитет КПРФ

Сейчас вы здесь: Главная » Новости и события » Комментарии » Газета "Правда": Такой тревожный интеллект
Суббота, 23 Ноя 2024
Рейтинг пользователей: / 0
ХудшийЛучший 

Газета "Правда": Такой тревожный интеллект

Печать

В Москве в Доме союзов фракция КПРФ в Государственной думе провела «круглый стол» на тему «Развитие искусственного интеллекта в России: угрозы и возможности». В обсуждении открывающихся здесь перспектив и проблем, связанных с этой всё плотнее входящей в нашу жизнь революционной технологией, вместе с депутатами приняли участие руководящие работники министерств, ведомств, корпораций, ведущие эксперты в области искусственного интеллекта (ИИ), цифровизации экономики и государственного управления, известные учёные и представители общественных организаций.


Из выступлений участников

Опираться на Толстого и Достоевского

 


Геннадий ЗЮГАНОВ, Председатель ЦК КПРФ, руководитель фракции коммунистов в Госдуме:

— Возможности у искусственного интеллекта, конечно, колоссальные. Но с каждым днём возрастают и угрозы. Поэтому надо, очень внимательно осмыслив проблему, подготовить и общество, и каждую семью, чтобы, избегая ненужных рисков, использовать эти возможности максимально.

Искусственный интеллект пытаются сопоставить с человеческим. Однако человек отличается от всего остального, прежде всего памятью, творчеством и состраданием. Что касается памяти, то машина уже решила многие задачи. И в творчестве у неё, пусть пока и с ошибками, но уже что-то начинает получаться. Что же касается морали, духовности и сострадания, то здесь рассчитывать на машину практически невозможно. И если мы этого не учтём, то впереди нас ждут тяжелейшие испытания.

Помню, как меня поразила точность оценки причины чернобыльской аварии, которую в своё время дал крупнейший учёный, академик Валерий Легасов, делавший доклад по этому вопросу от имени советской стороны в ООН и ЮНЕСКО. Его основной вывод заключался в следующем: главная причина аварии в том, что те, кто эксплуатировал станцию, опирались на таких же технократов, как они сами. Они не опирались на Толстого и Достоевского, их нравственно-культурный уровень не соответствовал сложности управляемого объекта. Сейчас такое сплошь и рядом.

У нас во фракции работал Жорес Иванович Алфёров, гениальный учёный и изобретатель. Человек, который, объединив Академию наук с высшим образованием, с талантливыми ребятами из спецшкол и с суперсовременным производством создал университет будущего, где уже внедряется искусственный интеллект.

Мы предлагали этот вариант развития для всех крупных промышленных центров страны. К сожалению, вопрос решается плохо. Мы его «вмонтировали» в наш проект закона «Образование для всех», позволяющего формировать личность интеллектуально, духовно и морально развитой. Увы, наши предложения были отвергнуты. Сейчас думаем над тем, как ограничить варваров, которые готовы использовать искусственный интеллект не только в корыстных, но и в человеконенавистнических своих интересах. Перед всеми нами стоит очень сложная задача.

Какие здесь риски? Производительность, если быстро внедрять ИИ, вырастет ежегодно минимум почти на полтора процента. Но тут же увеличится безработица. И те, кто останется не у дел и без еды, возьмут за горло тех, кто всё это внедрил и не обеспечил их самым необходимым. Вот вам и бесчеловечное государство.

А если, например, вас отключат от определённых карт и систем и вы не сможете войти ни в метро, ни в поликлинику, не сможете ничего купить, то вы попадёте в такой концлагерь, о котором Гитлер даже и не мечтал. Это бесчеловечное государство уже торчит отовсюду. Попробуйте записаться в некоторые поликлиники или вызвать «скорую помощь», и вы просто уморитесь...

Выборы. Если раньше боролись с ворами в законе, то теперь будут законные воры, которые станут внедрять «трёхдневку», «дистант» и полностью ликвидируют гражданский и партийный контроль за избирательной кампанией. Вот и получим результат, который невозможно проверить. А на завтра — на улице бунт.

Здесь проблема ответственности встаёт в полный рост. И она никак нигде не значится и не решается. Если какому-нибудь сумасшедшему руководителю попадёт в руки такой инструментарий, чем это закончится, одному богу известно.

Поэтому для нас принципиально важно выработать сегодня подходы, которые мы положим в основу при подготовке нового бюджета и наших рекомендаций президенту и правительству.

 


Внесём свою лепту


Михаил ЩАПОВ, первый заместитель председателя комитета Госдумы по бюджету и налогам (фракция КПРФ):

— Развитие искусственного интеллекта, безусловно, изменит экономическую, технологическую и политическую модели устройства общества. Но для нас, для законодателей, важно, как это отразится на жизни наших граждан и как сделать эти изменения для них более комфортными и безболезненными.

Здесь в первую очередь в голову приходит давний страх человечества перед его уничтожением высокоразвитыми машинами. Все мы читали научную фантастику, в последнее время об этой опасности говорят известные учёные и общественные деятели. Но есть и более вероятные угрозы и риски. Например, использование возможностей искусственного интеллекта для обмана людей, мошенничества, манипулирования общественным мнением через те же дипфейки, которые уже используются в политической борьбе.

Отдельно здесь нужно отметить риски применения ИИ в политике и избирательном процессе. С одной стороны, есть вероятность манипуляции результатами, а с другой — из-за отсутствия законодательной базы мы можем столкнуться с противоречивыми решениями госорганов в отношении кандидатов, которые используют искусственный интеллект и нейросети в своей агитации.

Ещё одна угроза — это применение искусственного интеллекта в военных целях, в шпионаже, попытках повлиять на другие государства вплоть до смены их политического строя. По сути, то государство, которое сможет стать лидером в этой сфере, получит в свои руки сверхоружие, не уступающее по значению ядерному.

Отдельная и сложная проблема, с которой уже сталкиваются разработчики искусственного интеллекта, — это когда для достижения хороших целей ИИ использует плохие методы. Была, например, ситуация, когда разработчики с помощью искусственного интеллекта пытались увеличить время просмотра видеороликов в Ютьюбе. И чтобы выполнить эту задачу, ИИ начал предлагать пользователям ролики всё более жёсткого и даже жестокого содержания, удерживая таким образом их внимание. В итоге цель была достигнута, но сомнительным с точки зрения этики и опасным для психики человека способом.

Есть также угроза, связанная с трансформацией рынка труда и цифровой безработицей. Да, мы осознаём, что при технологическом переходе часть профессий исчезает, но появляются новые. Однако, как показывает история, в моменте это приведёт к тому, что миллионы людей останутся без работы и государство должно будет оказать им помощь.

Мы эту проблему детально разбирали несколько лет назад в рамках двух «круглых столов». Тогда эксперты пришли к выводу, что в течение ближайших десятилетий в России внедрение различных видов искусственного интеллекта может привести к потере у нас 20 миллионов рабочих мест. При этом утверждают, что ИИ избавит нас от рутинного труда. Но здесь есть и другая проблема: чтобы стать профессионалом, нужно набить руку как раз на рутинном труде. Откуда у нас появятся люди с высокими компетенциями, если мы избавим их от необходимости уметь делать простые операции?

Ещё одна проблема — это обесчеловечивание государственных процедур, замена живых людей на сервисы, использующие нейросети, это приводит к тому, что люди всё чаще сталкиваются с бездушной машиной, которая не в состоянии проявлять к ним эмпатию. Наверное, все мы знакомы с ситуацией, когда чат-боты служб поддержки отвечают формально, не дают разобрать вопрос по сути, не переключают звонящего на живого специалиста. И оценок, как это влияет на социальное самочувствие граждан, пока нет.

Следующий вопрос — растущая зависимость госструктур от нейросетей и проблема так называемого чёрного ящика. С одной стороны, нейросети, внедряясь в работу госорганов, делают их более эффективными, однако есть риск, что чем больше сети саморазвиваются и усложняются, тем меньше мы будем понимать, как они работают и устроены.

Есть и проблема ответственности. В юридическом сообществе остро обсуждается вопрос: кто будет отвечать за преступления и ошибки, совершённые нейросетями, например за наезд автомобиля с автопилотом на человека? Ведь были случаи, когда автомобиль с автопилотом специально проезжал на красный сигнал светофора или когда робот-манипулятор наносил травмы работнику, и внешне это выглядело как действие намеренное.

Хочу напомнить, что в России основы политики в отношении развития искусственного интеллекта утверждены указом президента от 10 октября 2019 года № 490. Им же утверждена национальная стратегия развития искусственного интеллекта на период до 2030 года. В стратегии указано, что должны быть созданы условия для эффективного взаимодействия государства, организаций (в том числе научных) и граждан в сфере развития ИИ, что позволит российским технологиям искусственного интеллекта занять значительную долю мирового рынка.

Считаю, что наша сегодняшняя работа как раз и должна внести свою лепту в достижение этих целей.

 


Твори и думай сам


Олег СМОЛИН, первый заместитель председателя комитета Госдумы по науке и высшему образованию (фракция КПРФ):

— Я напомню слова Владимира Путина: «Кто будет владеть искусственным интеллектом, тот будет владеть миром». Напомню и известное высказывание знаменитого астрофизика Стивена Хокинга: «Бойтесь искусственного интеллекта: у него могут быть цели, не совпадающие с целями человечества».

Кто из них прав, мы к этому вопросу ещё вернемся, а пока о конкретных проблемах.

Об одной из них уже говорили: искусственный интеллект и рабочие места. Есть две точки зрения. Первая: технологические революции никогда не приводили к сокращению рабочих мест, а только к замене одних рабочих мест другими в иных сферах. Но такие аналогии — не доказательства. Мы же знаем, что прежние войны не могли уничтожить человечество, а война ядерная может. В этом смысле ситуация с искусственным интеллектом во многом уникальна.

Согласно второй точке зрения, ожидается колоссальная технологическая безработица, причём не столько в области ручного труда, сколько в области труда интеллектуального. Например, искусственный интеллект вряд ли вытеснит медсестру, которая ставит капельницы, но спокойно заменит доктора, который работает исключительно по европейским протоколам. Точно так же ИИ никогда не вытеснит творческого учителя, но легко заменит репетитора. Думаю, что проблемы будут и у работников поп-культуры. Надеюсь, искусственный интеллект напишет музыку лучше, чем Моргенштерн.

Скорее всего, будет происходить некоторое разделение: для бедных и средних слоёв — робот и искусственный интеллект; для богатых и супербогатых — живые люди.

Вторая тема, как ни странно, пенсии. Если верно то, что до 20 миллионов человек могут потерять работу в результате революции, связанной с искусственным интеллектом, то возникает вопрос: что делать с оставшимися не у дел людьми? Есть три решения. Первое — базовый доход. Второе — увеличение доли работников сферы образования, медицины, науки и культуры, что, на мой взгляд, очень рационально. Ну и третье решение — это снижение пенсионного возраста.

Много раз обсуждалась проблема защиты диплома с помощью ChatGPT. На самом деле это простой вопрос. Достаточно изменить здесь форму, оценивая знания дипломников не по их бумагам, а по тому, как они отвечают на вопросы, — и проблема будет решена. Кроме того, вероятно, уже скоро появятся технологии, где ИИ будет определять, что именно разработано искусственным интеллектом.

У нас по-прежнему очень бурно обсуждаются вопросы электронного обучения. Но, на мой взгляд, обсуждаются довольно примитивно, а именно: запрещать или не запрещать? На самом деле простого ответа тут нет. Совершенно очевидно, что злоупотребление информационными технологиями в школе вредно и с точки зрения здоровья, и с точки зрения интеллектуального развития учеников.

А вот электронные университеты — это веление времени. И если бы мы не тормозили их развитие, мы не потеряли бы из-за оттока за рубеж десятки, а может быть, сотни тысяч молодых людей, которые через электронное обучение сначала приглашались в западные университеты, а затем, соответственно, попадали и в зарубежные компании.

Главное, на мой взгляд, вот в чём. Мы знаем, что механизация развития транспорта и тому подобное сделали человека более слабым физически. Надо не допустить, чтобы ИИ сделал то же самое с его интеллектом. Поэтому необходимы определённые ограничения — читать, думать, считать, творить человек должен уметь сам. Искусственный интеллект должен выступать только в роли помощника — и не более. Помните советский фильм «Приключения Электроника», который начинается с песни: «Вкалывают роботы, а не человек», а заканчивается тем, что герой приходит к выводу — свои проблемы он должен решать сам.

Нам необходима большая программа развития искусственного интеллекта и микроэлектроники. Пока же китайская программа микроэлектроники, рассчитанная на пятилетку, оказалась в 32 раза больше по объёму финансирования, чем аналогичная российская программа, рассчитанная на десять лет. Мало того: в 2025 году у нас предполагается сократить расходы на микроэлектронику в шесть раз. Коллеги, мы такими темпами вперёд далеко не уйдём.

Необходимо также договариваться (по возможности на международном уровне, а если нет, то принимать решение самим) об определённых ограничениях в использовании ИИ, чтобы интеллектуальные способности детей и студентов не атрофировались.

Так кто же прав — Владимир Путин или Стивен Хокинг? Наверное, оба. А самое главное — прав Карл Маркс, который сказал так: «Культура, если она развивается стихийно, а не направляется сознательно... оставляет после себя пустыню». Так что, если не будем управлять искусственным интеллектом, то риски превзойдут достижения.

 


Требует тщательного контроля


Иван БАБИЧ, заместитель председателя комитета Госдумы по финансовому рынку (фракция КПРФ):

— Если посмотреть на открывающиеся перспективы внедрения искусственного интеллекта, то они видятся колоссальными. Взять хотя бы китайский автопром. Если пять лет назад это были какие-то бесформенные непонятные автомобили, то сейчас, смотря на разнообразие удачных дизайнерских решений, просто поражаешься! Оказалось, что это искусственный интеллект, который достаточно точно угадывает предпочтения потребителей. Он скоро заменит целые дизайнерские и конструкторские бюро, улучшит за доли секунды возможности микросхем и архитектуру чипов. То же самое можно сказать о проектировании зданий и наполнении их внутренней инженерией.

Естественно, какая-то часть людей потеряет рабочие места. Но наиболее квалифицированные, наоборот, получат огромные возможности.

Можно до бесконечности говорить о плюсах искусственного интеллекта. Но всё же очень настораживает применение его в повседневной жизни, особенно в части цифрового портрета. Рано или поздно мы все перейдём на онлайн-приложения для взаимодействия с государственными и финансовыми учреждениями. И вот здесь таится множество мин, которые могут быть заложены разработчиками алгоритмов. Большинство людей доверчивы, некоторые ещё и достаточно ленивы. И после внедрения в повседневную жизнь помощника в виде искусственного интеллекта такой человек доверит ему свои пароли и доступы к цифровому профилю. Этим обязательно воспользуются мошенники, начиная от возможности взлома самого профиля и заканчивая тем, что искусственный интеллект по своему усмотрению будет управлять цифровым профилем, выдавая человеку те данные, которые посчитает нужным.

Сегодня сложно сказать, каким образом ИИ станет формировать ту или иную точку зрения, выдавая человеку те ссылки и ответы, которые посчитает наиболее подходящими. В этом случае не человек будет управлять алгоритмом, а наоборот. Это уже отчасти происходит в поисковиках «Гугл» и «Яндекс».

И ещё. Анализируя большие объёмы данных, искусственный интеллект сделает абсолютно логичные выводы об определённых категориях людей: кто-то нередко нарушает законы, кто-то финансово нестабилен, у кого-то частые страховые случаи. Спираль дискриминации этих групп финансовыми институтами будет закручиваться, что явно создаст некий перекос в обществе.

Всё это требует тщательного контроля как при разработке законов, так и при дальнейшем использовании искусственного интеллекта.

 


В рамки закона


Георгий КАМНЕВ, заместитель председателя комитета Госдумы по контролю (фракция КПРФ):

— Наиболее серьёзный прогресс в использовании ИИ сейчас наблюдается в здравоохранении. И здесь возникает вопрос: к каким данным давать доступ искусственному интеллекту? Например, в Северной Америке искусственному интеллекту открыты обезличенные данные всех пациентов. Очевидно, что в таком случае ИИ будет давать врачу более точный медицинский прогноз. В Европе этот вопрос решён по-другому. Там к обезличенным персональным данным у искусственного интеллекта есть доступ только в случае, если на то получено разрешение самого пациента или его родственников.

Вот два варианта развития событий за рубежом. Нам тоже нужно дать здесь какой-то ответ и закрепить его нормативно.

Также хотел бы отметить, что искусственный интеллект в здравоохранении развивается таким образом, что первоначальное заключение даёт именно он, а потом уже врач. Многое тут зависит от того, какими данными обладает искусственный интеллект. Думаю, что в этом вопросе нам нужно принять наиболее прогрессивную точку зрения.

Ещё одна сфера, где сейчас также активно используется искусственный интеллект, — это правосудие. Разумеется, вынесение вердиктов здесь может делать только судья, а вот в автоматизации рутинных задач, обеспечении доступности населения к судопроизводству ИИ может хорошо помочь. Например, при подаче в суд документов, когда программа следит за правильностью их подготовки. Или, допустим, в прогностическом так называемом правосудии, чтобы оценить перспективность обращения в суд. Ведь в каком-то случае этого делать нет смысла. Здесь тоже нам нужно будет решить вопрос о доступности баз данных.

Также хотел затронуть и вопрос интеллектуальной собственности. Есть несколько вариантов ответов на него. Первый — результат интеллектуальной деятельности остаётся за пользователем, который вводит в программу запрос. Но дело в том, что он, по сути, не создаёт здесь никакого интеллектуального продукта — это делает программа. Можно закрепить право на результат за её разработчиком, но ведь не он осуществляет конкретный запрос. Верно? Полагаю, что результат работы искусственного интеллекта вообще не должен являться объектом интеллектуальных прав.

Обязательно нужно разрабатывать стандартизацию, то есть определить, какими данными и как будет использоваться ИИ в той или иной сфере. Необходима и сертификация искусственного интеллекта, что тоже поможет нам избежать больших проблем.

 


Потенциал ИИ — в социализме


Денис ПАРФЁНОВ, член комитета Госдумы по бюджету и налогам (фракция КПРФ):

— В последнее время в этой сфере был сделан, безусловно, гигантский скачок, и очевидно, что в обозримой перспективе это движение будет лишь ускоряться. Поэтому нужно очень чётко поставить вопрос: чего мы хотим, какое состояние развития технологий является для нас желательным?

Совершенно очевидно, что есть крайне перспективные междисциплинарные направления. Например, на стыке ИИ и робототехники открывается перспектива создания роботов-помощников, которые будут в состоянии выполнять, в том числе, функции, связанные с мелкой моторикой. И та страна, которая первой освоит производство такой техники, конечно, не просто создаст новую отрасль производства, а сформирует новый рынок, который будет обладать колоссальной востребованностью. За счёт этого она получит гигантское преимущество.

У искусственного интеллекта огромный потенциал в помощи человеку для управления экономикой. Я искренне убеждён, что из сочетания мощной вычислительной техники и средств телекоммуникации именно плановое управление может обрести новое качество, недостижимое прежде. Ведь одна из причин разрушения СССР — это многократное увеличение сложности его экономики, в то время когда качество научного управления и планирования не вполне соответствовало новым требованиям. Сейчас за счёт новой техники есть возможность преодолеть это ограничение. Плановая экономика могла бы подняться на новую, прежде недосягаемую высоту.

В МГУ уже давно существует целая школа научного стратегического планирования на основе динамической модели межотраслевого баланса, которую возглавляет профессор Елена Ведута. Пожалуйста, бери, соединяй с ИИ, ставь это в рамки государственной политики и получай потрясающий результат! Пока, к сожалению, у нас не спешат это делать. Причину мы все хорошо понимаем: подобное управление значительно сократит возможности для личного обогащения определённого круга лиц.

Если сохранится действующая система олигархического управления, основанная на приоритете максимизации прибыли, то новейшие технологии будут использоваться не на благо большинства, а могут стать воплощением самых мрачных прогнозов об электронном концлагере.

Действующий капиталистический строй в части использования технологий ИИ несёт в себе гораздо больше рисков, чем преимуществ. В полной мере раскрыть положительный потенциал этой системы можно только в обществе, построенном на социалистических принципах.

К слову, в проекте программы КПРФ на выборах мэра Москвы более пяти процентов его текста — результат взаимодействия с нейросетью. Это если не единственный, то, по крайней мере, один из первых в мире политических документов, который стал результатом совместного творчества человека и машины.

 


Выборы с дипфейками?


Александр МИХАЛЬЧИК, заведующий сектором отдела ЦК КПРФ по проведению избирательных кампаний:

— Искусственный интеллект уже вовсю применяется в выборных процессах. Мы в КПРФ работаем в этом направлении всего полгода, но уже успели «обкатать» некоторые технологии на досрочных и промежуточных выборах, которые прошли в стране в апреле. Результаты получились интересными, есть определённые успехи, достижения, но имеются и сложности. В общем, нормальный рабочий процесс, если бы не одно, и очень существенное, «но»: в начинающейся широкой избирательной кампании (как и в последующей за ней президентской) до сих пор не обозначены «правила игры» с искусственным интеллектом.

Что здесь можно, а чего нельзя? Этот вопрос сегодня задают многие политтехнологи, социологи и юристы, задействованные в выборном процессе. Понятно, что использование сети «Кандинский» или её аналогов от «Сбера» здесь недопустимо — это прямое нарушение авторских прав. Но что делать с иностранными чатами и платформами? Ведь руководители нашей страны открыто говорят, дескать, «благородное пиратство» вполне допустимо. Однако при этом молчат главные регулирующие и контролирующие органы — Генпрокуратура, правительство, ЦИК.

А ведь ещё есть и суды. Мы же прекрасно понимаем, что, допустим, представители американской компании «Миджорни» не пойдут в суд снимать с выборов, например, в Якутии кандидата за неправомочное использование их ресурса. То есть получается, что фактически и нарушения как такового нет! Но разве не найдётся какая-нибудь «оскорблённая душа» из числа оппонентов кандидата, которая подаст иск о таком нарушении. И что решит суд, если нет чётких рекомендаций регуляторов?

Председатель ЦИК Памфилова недавно заявила, что видит риски вмешательства в наши выборы из-за рубежа с помощью хакерских атак. И при этом продолжает насаждать дистанционное электронное голосование — штуку весьма непрозрачную, а следовательно, уязвимую. В связи с этим «всплывает» ещё один аспект: учитывая сегодняшние возможности ИИ, мы вполне можем столкнуться в президентской кампании не только с хакерскими атаками, но и с валом дипфейков (подделанные с помощью ИИ аудио-, видео- и фотоматериалы. — Ред.).

Почему ЦИК не вносит никаких рекомендаций по маркировке? Почему на все предметные вопросы нам по-прежнему отвечают некие «заклинатели», что, мол, спите спокойно, в России всё прекрасно! Ещё недавно таким «заклинателем» был небезызвестный гражданин Алексей Венедиктов. Теперь его «забанили» (запретили. — Ред.), а пришедшие ему на смену талдычат всё те же слова по той же бумажке.

Регулирование норм использования ИИ необходимо. Просим ускорить этот процесс, чтобы наша работа в избирательных процессах была чётко и понятно регламентирована, чтобы не было произвола и перегибов на местах.

Предлагаю внести в рекомендации «круглого стола» дополнения, адресованные Центральной избирательной комиссии, чтобы хотя бы на ближайших выборах она разрешила использовать искусственный интеллект в работе с изображениями и видеоматериалами.

 


Из рекомендаций «круглого стола»


Участники «круглого стола» рекомендуют органам власти обратить внимание на следующие проблемы:

Министерству труда и социальной защиты Российской Федерации и комитету Государственной думы по труду, социальной политике и делам ветеранов при подготовке документов долгосрочного планирования рынка труда в России учитывать проблему и риски цифровой безработицы как следствие развития ИИ.

Министерству цифрового развития, связи и массовых коммуникаций Российской Федерации, комитету Государственной думы по информационной политике, информационным технологиям и связи:

При рассмотрении любых мер по внедрению ИИ в системы государственного управления учитывать необходимость сохранения контакта граждан с чиновниками-людьми по любым вопросам.

Проработать вопрос о едином банке данных технологий ИИ, использованных для разработки новых государственных сервисов с целью сохранения технологий для будущих поколений разработчиков государственных сервисов, основанных на ИИ.

Рассмотреть вопрос о классификации систем ИИ и физических инструментов, использующих ИИ, по степени риска для пользователей. Регламентирование этих нишевых сегментов по различным критериям, включая возрастной и профессиональный.

Предлагается рассмотреть вопрос о возложении ответственности (имущественной в первую очередь) на компании-создатели ИИ за соблюдение в процессе создания и использования ИИ фундаментальных, общечеловеческих принципов здоровья, безопасности, охраны окружающей среды, законности и правопорядка.

Проработать и установить жёсткие критерии регулирования приборов и систем, использующих ИИ, такие как: медицинские приборы с применением ИИ, основанные на ИИ системы управления критической инфраструктурой и т.п.

Министерству цифрового развития, связи и массовых коммуникаций Российской Федерации и правоохранительным органам:

Предлагается рассмотреть вопрос о запрете систем предиктивной аналитики, основанных на ИИ, для профилактики правонарушений. Предиктивной аналитикой могут и должны заниматься исключительно специалисты-криминалисты.

Рассмотреть вопрос о запрете использования систем распознавания лиц и других систем «удалённой биометрической идентификации» в режиме реального времени в местах массового сосредоточения людей, для компаний-операторов ИИ, за исключением ФСБ России.



Rambler's Top100