На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Business FM

65 797 подписчиков

Свежие комментарии

  • Надежда
    Зачем пробовать мороженое, если можно взять деньгами!)😏Гособвинение запр...
  • Лидия Санникова
    Кант был подданным Российской империи. Похоронен в Калининграде. При чем здесь Шольц?Иммануил Кант — т...
  • Leonid PlиGin
    Что-то я не понял: а какие ограничения введены для любителей? И любителей кого? И в каком смысле - любителей?В ряде парков Мос...

Совет Федерации хочет обезопасить граждан от дискриминации со стороны искусственного интеллекта

Однако среди предпринимателей, которые уже активно применяют в своей работе различные алгоритмы, нет единства мнений о необходимости какого-то госрегулирования в этой плоскости. Вопрос о цифре оказался скорее философским

Сенаторы поручили Минцифры, Минздраву и Минэкономики разработать меры, исключающие дискриминацию человека при использовании искусственного интеллекта, и утвердить «дорожную карту» по этому направлению до конца 2022 года.

Пока что в Совфеде не уточнили что именно подразумевается под дискриминацией граждан со стороны ИИ. Но очевидно, что пространства для фантазии тут предостаточно. Камеры, фиксирующие нарушения водителей в случаях, когда штрафы получали владельцы легковых машин, которые перемещались на эвакуаторах, — это дискриминация? Почему нет? Скоринговые системы банков — алгоритм решает кому дать кредит, а кому нет — дискриминация? А громкий кейс с компанией Xsolla, из которой на основании анализа алгоритмами в прошлом году уволили 150 человек?

Примеров много. Самый простой и распространенный, с которыми почти каждый сталкивается ежедневно, — соцсети с их таргетированной рекламой, напоминает президент компаний InfoWatch Наталья Касперская:

Наталья КасперскаяНаталья Касперская президент группы компаний InfoWatch «Цифровые платформы используют алгоритмы искусственного интеллекта, обучают их на больших данных пользователей и навязывают рекламу или на основании этих знаний проводят политическую пропаганду. То есть, это типичная манипуляция».

А ведь реклама — это самое безобидное в этом ключе. Человеку можно навязать не только желание что-то купить, но и повлиять на его убеждения. Основатель и президент SuperJob Алексей Захаров относится к этой проблеме спокойнее. В HR алгоритмы уже могут оценивать, насколько резюме кандидатов соответствует таким признакам, как средняя продолжительность работы на одном месте на всем протяжении карьеры, разницу между требуемым опытом вакансии и опытом из резюме, попадание желаемой зарплаты резюме в зарплатную вилку вакансии и многое другое. И все, что можно будет доверить цифре, доверят, уверен Захаров:

Алексей Захаров основатель и президент SuperJob «То, что можно легко алгоритмизировать, то поддается современному искусственному интеллекту. Соответственно, бухгалтерия уже практически исчезла и исчезнет в ближайшее время совсем. Вождение автомобиля — это тоже алгоритм. В ближайшее время, людей, которые не поддаются алгоритмам, перестанут пускать за рулем на улицы, а машины правила не нарушают и будут себе спокойно ездить. Диагнозы по инсультам: доктор наук ошибается в 50% случаев, а алгоритм уже лет десять ошибается в 1% случаев. Соответственно, какие-то такие истории тоже отдаются на откуп алгоритмам».

Надо сказать, что Алексей Захаров вообще не считает уместным использование самого термина ИИ. Его позиция в том, что алгоритм — это помощник. Он не принимает решений сам. Хотя многие готовы с этим поспорить — взять тот же скорринг.

Или что сказать человеку, которого не взяли на работу, потому что нейросети чем-то не угодила его страничка в Facebook?

А по поводу беспилотных машин — так они тоже ошибаются и этический вопрос — выпускать ли их на дороги — все еще не решен. А кто знает куда дотянутся цифровые щупальца алгоритмов в ближайшем будущем. Если сегодня машина определяет, дать кредит человеку или нет, почему завтра ей не проверить результаты ЕГЭ. И смотреть на это можно по-разному — с одной стороны алгоритмизировать этот процесс ничего не стоит. С другой — это же реально судьба человека. И разговор с экзаменатором по своей ценности не стоит на одной полке с механической оценкой того, поставил ли школьник «плюс» перед знаком бесконечность. Человеку можно объяснить, что тут априори имелось в виду, что бесконечность положительная. Машине — нет: нет знака — есть ошибка.

Еще один важный аспект — это то, что алгоритмы пишут люди. И от людей зависит то, как будет работать ИИ. Но и здесь есть обратная сторона. Если ошибку допустил ИИ — обратной связи с ним нет практически никакой, и ты ничего не докажешь. Это очень хорошо известно тем, кто хоть раз пытался исправить какую-то неточность в своих данных на госуслугах, неделями переписываясь или разговаривая с электронными помощниками, или пробовал оспорить несправедливо выписанный штраф с камеры.

 

Ссылка на первоисточник

Картина дня

наверх