Пять способов использовать ИИ на благо общества

Опубликовано От Sergey

Этичность применения алгоритмов все чаще становится темой для обсуждения. Стоит ли использовать ИИ для автономного транспорта, рекрутинга, сканирования лиц или приема студентов в университеты? Будут ли эти инструменты беспристрастны, если они разрабатываются крупными корпорациями, которые преследуют свои интересы?

Сейчас внимание общества и регулирующих органов к возможностям и влиянию ИИ стало особенно пристальным. Изучим, как можно применять интеллектуальные алгоритмы во благо. 

Пять способов использовать ИИ на благо общества

Елена Лиханова

Снизить влияние корпораций на исследования

Технологические гиганты имеют непропорционально огромный контроль над исследованиями в области ИИ. Из-за этого фокус смещается в сторону все более больших данных и больших моделей. Воздействие на климат игнорируется, лаборатории с ограниченными ресурсами не могут участвовать в полевых исследованиях, а научные исследования не рассматривают все возможные подходы. Как показала история с Тимнит Гебру из Google, крупные компании готовы закрывать глаза и на другие последствия.

Такое влияние корпораций объясняется преимущественно их деньгами и отсутствием альтернативных источников финансирования для независимых исследователей. Так, лаборатория OpenAI изначально стремилась полагаться только на независимых, богатых доноров. Однако план оказался ненадежным, и четыре года спустя OpenAI подписала инвестиционный контракт с Microsoft.

Можно ожидать, что в будущем все больше стран будут заполнять этот пробел и предоставлять исследователям варианты финансирования, не связанные с оборонными проектами. 

Создавать системы, которые могут не только воспроизводить, но и понимать

Концентрация на моделях затмевает одну из центральных целей исследований ИИ: создания интеллектуальных машин, которые не просто следуют образцу, но действительно понимают смысл. Основной причиной этого тренда является власть корпораций, однако есть и другие причины. На научно-исследовательских конференциях и в публикациях большое внимание уделяется достижению «современных» результатов. Однако этот критерий измеряется тестами, которые можно обойти большим количеством данных и крупными моделями.

При этом есть и другие направления исследований, которые заслуживают больших инвестиций, например:

  • нейросимволический ИИ, сочетающий глубокое обучение с символическими системами знаний;
  • вероятностные методы, которые используют гораздо меньше данных и имитируют способность детей учиться на гораздо меньшем количестве примеров.

Можно надеяться, что в ближайшем будущем приоритет будет отдан пониманию, а не прогнозированию. Так наши системы будут надежнее не только с технической точки зрения. Алгоритмы станет труднее обмануть, а значит, беспилотные автомобили и автономное оружие будут безопаснее. Кроме этого, ИИ, умеющий различать корреляцию и причинность, не допустит дискриминации.

Расширить права и возможности маргинализированных исследователей

Если алгоритмы воплощают ценности и перспективы их создателей, то в их разработке должна участвовать широкая часть человечества. 

Случай Google и Гебру, одной из немногих известных чернокожих женщин в индустрии, показывает, какой путь еще предстоит пройти. Одного разнообразия недостаточно, если кто-то из участников проекта не может выразить свое мнение. Однако можно ожидать, что что ситуация изменится к лучшему.

Заниматься проблемами уязвимых сообществ

Есть еще одна группа, которую нужно упомянуть. Одной из самых захватывающих тенденций прошлого года стало появление совместного машинного обучения. Процесс разработки ИИ придется изобрести заново, чтобы включить в него тех, кто в конечном итоге будет зависеть от них.

В июле на первом семинаре-конференции, посвященном этому подходу, было представлено множество вариантов того, как это может выглядеть:

  • новые процедуры управления для получения обратной связи от сообщества;
  • новые методы аудита моделей для информирования и привлечения общественности;
  • изменения в системах ИИ, которые дадут пользователям больше контроля над их настройками.

Можно надеяться, что в 2021 году эти идеи будут изучены и приняты всерьез. Facebook уже делает первый шаг в этом направлении: если независимый наблюдательный совет платформы сможет вносить изменения в политику модерации контента, эта структура управления может стать образцом обратной связи.

Внести ограничения на законодательном уровне

Общественные усилия уже помогли смягчить воздействие алгоритмов и привлечь технологических гигантов к ответственности за контроль над контентом. Ограничения на законодательном уровне будут зависеть от национальных и международных регуляторов. Так, в США члены Конгресса уже внесли законопроекты, направленные на борьбу с распознаванием лиц, предвзятостью ИИ и дипфейками. 

В 2021 году можно ожидать, что некоторые из законопроектов будут приняты. У нас уже есть достаточно данных, и пора перейти с саморегуляции к универсальным правилам.

Источник.

Фото на обложке: Unsplash

Нашли опечатку? Выделите текст и нажмите Ctrl + Enter

Источник: https://rb.ru/

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *