3 шага навстречу этике искусственного интеллекта
Как сделать будущее искусственного интеллекта безопаснее с помощью этики?
Есть два мнения о будущем искусственного интеллекта (ИИ):
- Утопический взгляд: интеллектуальные системы откроют новую эпоху просвещения, где люди свободны от работы во имя достижения более благородных целей. Системы ИИ будут запрограммированы на лечение болезней, справедливое разрешение споров и улучшение нашего человеческого существования.
- Апокалиптический взгляд: интеллектуальные системы украдут нашу работу, превзойдут людей, станут использоваться в военных целях и будут определять будущее над текущими потребностями. Наши сомнительные усилия по их контролю покажут только наши собственные недостатки и плохую способность применять мораль к технологиям, которые мы не можем контролировать.
Как и в большинстве случаев, истина, вероятно, где-то посередине.
Независимо от того, где правда, важно знать, как люди могут влиять на ИИ по мере развития технологий. Одна идея заключается в том, что люди в значительной степени будут формировать сознательность или моральные устои ИИ. Но как мы это сделаем? И как мы можем применить этику к ИИ, чтобы предотвратить худшее?
Искусственный интеллект для руководителей
Нужно понимать, чего вы хотите добиться с помощью ИИ. Цели у всех разные, поэтому и способы применения ИИ отличаются друг от друга. С нашим руководством вы можете интегрировать углубленную аналитику, включая ИИ, в свою стратегию. Тем самым можно понять сильные и слабые стороны различных методов на основе ваших целей.
Отношения человека и искусственного интеллекта
Сила систем глубокого обучения в том, что они определяют собственные параметры или характеристики. Просто дайте им задание или задайте цель, укажите данные, и они справятся с остальным. Например, возможность автонастройки в SAS Visual Data Mining и инструментах машинного обучения может выявить лучший результат самостоятельно. Но люди по-прежнему являются наиболее важной частью процесса.
«Люди решают проблемы, а не машины», - объясняет Мэри Бет Айнсворт, специалист по искусственному интеллекту в SAS. «Машины собирают информацию, затем программируют и решают проблему автоматически, основываясь на человеческих решениях».
В то время как будущие системы ИИ смогут собирать собственные данные, большинство современных систем полагаются на людей, чтобы обеспечить входные параметры, включая данные и наилучший результат, как сказано в определении обучения с подкреплением. Когда вы просите алгоритм определить наилучший способ достижения этого результата, вы не представляете, как машина решит проблему. Вы просто знаете, что у нее получится лучше, чем у вас.
Учитывая нынешние отношения между людьми и ИИ, мы можем совершить несколько шагов, чтобы с этической точки зрения контролировать результаты ИИ-проектов. Давайте начнем с этих.
Люди решают проблемы, а не машины. Последние собирают информацию, затем программируют и решают проблему автоматически, основываясь на человеческих решениях. Mary Beth Ainsworth AI and Language Analytics Strategist SAS
Шаг 1: предоставлять лучшие данные
Алгоритмы ИИ обучаются с помощью набора данных, которые используются для информирования или построения алгоритма. Если ваш алгоритм идентифицирует кита как лошадь, очевидно, что вам нужно предоставить больше данных о китах (и лошадях). Аналогично, если ваш алгоритм идентифицирует животных как людей, вам необходимо предоставить больше данных о людях. Если ваш алгоритм принимает неточные или неэтические решения, это может означать, что было недостаточно данных для обучения модели или что обучение с подкреплением не соответствовало желаемому результату.
Конечно, также возможно, что люди невольно ввели неэтические значения в систему с помощью предвзятого выбора данных или неправильно назначенных значений подкрепления. В целом, мы должны убедиться, что входные данные и материалы, которые мы предоставляем, рисуют полную и правильную картину для алгоритмов.
Шаг 2: обеспечивать надлежащий надзор
Создать систему управления с закрепленными владельцами и заинтересованными сторонами для всех ИИ-проектов. Определить, какие решения вы будете автоматизировать с помощью ИИ, а какие потребуют участия человека. Взять на себя ответственность за все части процесса с учетом ответственности за ошибки ИИ и установить четкие границы для развития системы ИИ. Включить в этот процесс ответственность за алгоритмы мониторинга и аудита на регулярной основе, чтобы гарантировать соответствие плану и верную работу моделей.
Будь это дата-сайентист или специалист по этике, в любом случае кто-то должен нести ответственность за политику и протоколы ИИ, включая соблюдение стандартов. Возможно, когда-нибудь компании назначат главного за соблюдение этики ИИ. Но независимо от названия должности, кто-то должен нести ответственность за соответствие результатов и производительности заданным этическим рамкам.
Нам необходимо управление, контроль, мониторинг и совершенствование для стандартной аналитики, то же самое нужно для искусственного интеллекта. Однако последствия для ИИ грандиознее, потому что машины могут начать задавать вопросы и сами же находить ответы.
Шаг 3: учитывать последствия внедрения новых технологий
Чтобы отдельные лица могли обеспечивать соблюдение политики, технология должна позволять людям вносить изменения. Люди должны иметь возможность выбирать и корректировать учебные данные, контролировать источники данных и выбирать, как данным преобразовываться. Аналогичным образом, ИИ-технологии должны поддерживать надежное управление, включая доступ к данным и способность направлять алгоритмы, когда они неверны или работают за пределами этически определенных границ.
Невозможно предвидеть все потенциальные сценарии с ИИ, но важно рассмотреть возможности и установить средства контроля для положительного и отрицательного усиления. Например, введение новых, даже конкурирующих целей, может поощрить этические решения и идентифицировать неэтические как неправильные или ошибочные. Система ИИ, предназначенная для придания равного веса качеству и эффективности, даст результаты, отличные от системы, полностью ориентированной на эффективность. Кроме того, проектирование ИИ-системы с несколькими независимыми и противоречивыми целями может добавить ответственность системе.
Не избегайте этики искусственного интеллекта
ИИ может повысить безопасность автомобиля и диагностировать рак, и он также может выбирать цели для крылатых ракет. Все возможности ИИ имеют значительные этические последствия, которые необходимо обсуждать с разных точек зрения. Как мы можем гарантировать, что этическими нормами для ИИ не будут злоупотреблять?
Три вышеуказанных шага - это только начало. Они помогут вам начать трудный путь разработки этических рекомендаций для ИИ в вашей компании. Возможно, вы не решитесь воплотить этическую политику, но мы не можем избежать этой темы. Так что не ждите. Начните обсуждение сейчас, чтобы определить границы, как обеспечить их соблюдение и даже как изменить их, если это необходимо.
Рекомендуем прочитать
- The transformational power of evidence-based decision making in health policyState health agencies are under pressure to deliver better health outcomes while minimizing costs. Read how data and analytics are being used to confront our biggest health care challenges head on.
- ModelOps: непрерывное управление жизненным циклом моделиModelOps – методика бесперебойной интеграции аналитических моделей в бизнес, когда модели, созданные командой аналитиков, реализуются в ИТ окружении компании в условиях внесения регулярных изменений и обновлений.
- Как строится сотрудничество между НИУ ВШЭ и SAS РоссияВ рамках SAS Forum Russia 2019 обсуждалось взаимодействие между университетом и бизнесом, а также подготовка наиболее сильных и подходящих для рынка кадров на панельной дискуссии в секции «Мост между бизнесом и университетами: Академическая программа SAS».
- Студенты Высшей Школы Экономики в офис SAS25 февраля студенты с факультета компьютерных наук посетили SAS. Наши эксперты рассказывали о компании, аналитике, задавали вопросы с подвохом, на которые ребята быстро, а, главное, правильно отвечали.