Проблема искусственного интеллекта в психологии

23

Проблема искусственного интеллекта в психологии.

Люди не принимают более правильных решений, когда им предоставляется больше данных, так почему мы предполагаем, что это сделает ИИ?

Проблема искусственного интеллекта в психологии
Проблема искусственного интеллекта в психологии

Автор: Марианна Баллотти

В теплый день 2008 года титаны Кремниевой долины оказались упакованными вокруг громоздкого стола в зале для пресс-конференций. Хотя сегодня они являются громкими именами, успех их бизнеса в то время не был гарантирован. Amazon Джеффа Безоса работала с очень низкой рентабельностью и не приносила прибыли. Они только что запустили бизнес, связанный с облачными вычислениями, который станет дойной коровой Amazon, но они еще не знали об этом. Шон Паркер был вынужден покинуть Facebook, уступив место управляющему партнеру Фонда основателей Питеру Тильда. Ему оставалось несколько лет до критического вложения в Spotify. Справа от него был Илон Маск, чья компания по производству электромобилей Tesla находилась в финансовом кризисе и чья ракетная компания SpaceX потратила миллионы долларов на создание ракеты, которая уже трижды не запускалась. Напротив них Ларри Пейдж активно занимался поглощениями в Google, но Viacom предъявил ему иск на 1 миллиард долларов.

Девять часов своего драгоценного времени они посвятили столу конференц-зала, чтобы послушать, как лауреаты Нобелевской премии учат их тому, как люди принимают решения. Они будут применять эти знания, чтобы дать своим технологическим компаниям преимущество над конкурентами, используя то, что в конечном итоге будет называться искусственным интеллектом.

Вопросу качества данных в повестке дня не было. Ученые в комнате были бихевиористскими экономистами, для которых фантазия агента — человека или машины — способного принимать полностью рациональные решения была предметом критики и опровержения. Они не говорили о проблемах получения точных данных для создания совершенных машин для принятия решений, потому что не верили, что это возможно. Вместо того, чтобы устранять человеческие предубеждения, они хотели организовать технологию вокруг этих предубеждений.

Все больше и больше данных

Пока Министерство обороны (DOD) собирало данные, оно тратило миллиарды долларов, пытаясь «очистить» их. Мечта о главном мозге, в котором потоки чистых и точных данных поступают и производят понимание и большую ситуационную осведомленность для правительств и армий, стара, как сами компьютеры — Франция пробовала это , Чили пробовала , Советский Союз пробовал это три раза , несомненно, Китай пытается это сделать прямо сейчас — но независимо от того, сколько данных мы собираем, насколько быстрыми или мощными становятся машины, это всегда кажется недосягаемым.

Эксперты отмечают, что специалисты по обработке данных тратят примерно 80% своего времени на очистку данных , и ключом к достижению этих централизованных центров управления на базе ИИ является устранение разрозненности между сервисами и создание взаимодействующих потоков для моделей ИИ. Министерство обороны тратит примерно 11–15 миллиардов долларов в год на персонал, который управляет своими данными в той или иной форме. После десятилетий инвестиций, надзора и разработки стандартов мы не приблизились к полной ситуационной осведомленности с помощью компьютеризированного мозга, чем были в 1970-х годах. По мере того, как компьютеры становились все более продвинутыми, объем данных, в которых они тонут, также увеличивался.

Вместо того, чтобы устранять человеческие предубеждения, они хотели организовать технологию вокруг этих предубеждений.
И дело не только в деньгах Министерства обороны США, которые не смогли решить проблему. Несмотря на инвестиции в размере 16 миллиардов долларов от крупных игроков Кремниевой долины, мы на десятилетия далеки от беспилотных автомобилей. Несмотря на миллиарды, вложенные в модерацию ИИ, крупнейшие социальные сети по-прежнему в значительной степени полагаются на армии людей, которые убирают со своих платформ самый ужасный контент.
Возможно, неудивительно, что большое правительство не может получить хорошую отдачу от инвестиций в ИИ, но похоже, что и большие технологии не могут.

Может мы решаем не ту проблему

Пытаясь разработать решение сложной проблемы, стоит разделить все до основных принципов: какие предположения мы делаем и как эти предположения определяют, какие проблемы, по нашему мнению, нам необходимо решить? Если бы эти предположения были другими, мы бы решали другие проблемы? Как проблемы, которые мы хотим решить, соотносятся с результатами, которые мы ценим?

Результат, на который мы все надеемся от ИИ, — это лучшее принятие решений. Полная ситуационная осведомленность привлекательна, потому что мы предполагаем, что предоставление руководителям доступа к большему количеству данных является ключом к принятию лучших решений, а принятие лучших решений означает меньшее негативное воздействие. Нет никакой загадки в том, почему Министерство обороны хотело бы отдавать приоритет технологиям, которые позволят ему предотвратить конфликт или минимизировать побочный ущерб. Нет никаких сомнений в том, почему Facebook хочет контролировать язык вражды на своей платформе.

Но исследование, проведенное такими учеными, как те, кто обучал технических лидеров в этом конференц-зале в 2008 году, ставит под сомнение ценность знания большего. В реальной жизни лица, принимающие решения, оптимизируют работу для экономии усилий . Полная ситуационная осведомленность менее желательна, чем инструменты, облегчающие командные усилия, ведущие к принятию решения. В конце концов, решения часто оцениваются по результатам, которые включают в себя немного удачи и правильный анализ. До того, как эти результаты будут реализованы, даже самая тщательная и тщательно разработанная стратегия, подкрепленная абсолютно лучшими данными, не может предложить гарантии, и все участники это знают. По этой причине процесс принятия решения — это не столько объективный анализ данных, сколько активные переговоры между заинтересованными сторонами.с разными допусками к риску и приоритетам. Данные используются не для понимания, которое они могут предложить, а как щит для защиты заинтересованных сторон от последствий . Совершенная информация — если она вообще достижима — либо не приносит пользы, либо фактически снижает качество решений за счет увеличения уровня шума.

Это кажется невероятным: точная информация должна автоматически улучшать процесс принятия решений. Но это не так, потому что больше информации редко меняет организационную политику, стоящую за решением. ИИ может правильно идентифицировать контент, но решения, принимаемые на основе этого контента, в значительной степени основаны на нормах и ожиданиях как пользователей, так и организации. Политика модерации Facebook, например, позволяет фотошопить изображения ануса знаменитостей, но не фото реального ануса знаменитости. Людям легко понять, как отношения между заинтересованными сторонами делают это различие осмысленным: один нарушает нормы свободы слова и общественного обсуждения; другой нет.

Поскольку решения необходимо принимать в командах с учетом различных заинтересованных сторон и их стимулов, лучший способ улучшить процесс принятия решений — это не просто добавить больше датчиков для получения большего количества данных. Вам необходимо улучшить коммуникацию между заинтересованными сторонами.

Возникает вопрос: нужно ли нам инвестировать миллиарды долларов в очистку данных и улучшение наших датчиков, чтобы увидеть преимущества ИИ?

Плохо спроектированный ИИ — угроза (национальной) безопасности

То, как мы говорим о качестве данных, вводит в заблуждение. Мы говорим о «чистых» данных так, как будто есть одно состояние, в котором данные являются точными (и свободными от систематических ошибок) и могут использоваться повторно. Чистота — это не то же самое, что точность, а точность — это не то же самое, что действовать. Проблемы на любом из этих векторов могут помешать разработке модели ИИ или повлиять на качество ее результатов. Есть много причин, по которым данные, входящие в модель, могут быть проблематичными. Некоторые из них очевидны: данные неверны, повреждены или имеют неожиданный формат. Другие проблемы более тонкие: данные были собраны в определенном контексте и повторно используются ненадлежащим образом; данные имеют неправильный уровень детализации для цели модели; или данные не стандартизированы, и одни и те же факты представлены или описаны по-разному.

Решить одну из этих проблем с помощью единственного источника данных достаточно сложно. Решить их все в крупной организации в среде, где злоумышленники будут пытаться внедрить в эти системы неверные данные, чтобы саботировать модели, которые они кормят, практически невозможно. В нашем видении искусственного интеллекта мы не можем позволить себе игнорировать то, что, хотя инновации создают возможности, они также создают уязвимость. ИИ изобретет новые способы решения проблем, но также и новые способы атаки. Подобно тому, как цифровизация электростанций, общественного транспорта и систем связи создала кибер-армии и киберпреступления, ИИ создаст новое поколение противников, которые найдут возможности для борьбы за преимущества, атакуя инструменты, а не создавая конкурирующую силу. От сенсорных атакот глубокой подделки до «подделки местоположения» спутниковых данных , методы ослепления или неверного направления врага путем искажения данных развиваются вместе с основными технологиями, которые они будут саботировать.

Современные системы искусственного интеллекта полностью зависят от качества своих данных не потому, что технология незрелая или сломанная, а потому, что мы спроектировали их таким образом, чтобы они были уязвимы. Производственные системы ИИ должны быть устойчивыми к неверным данным. Если мы изменим проблему, которую пытаемся решить, мы сможем изменить дизайн, чтобы снизить риск атак на ИИ. Нам нужно сделать ИИ антихрупким.

Что такое антихрупкий ИИ?

В системном мышлении «антихрупкость» — это конструкция, которая не только восстанавливается после сбоя, но и более эффективна при возникновении сбоя. Когда мы создаем ИИ на основе того, что на самом деле улучшает процесс принятия решений, мы создаем возможность для антихрупкого ИИ. Из существующих исследований в области когнитивной науки мы знаем, что правильные решения являются продуктом упреждающего формулирования предположений, структурирования тестов гипотез для проверки этих предположений и установления четких условий. каналы связи между заинтересованными сторонами.

Многие когнитивные искажения, вызывающие так называемую человеческую ошибку, являются результатом блокирования одного из этих трех условий. Когда люди четко не формулируют свои предположения, они применяют решения, которые не подходят для данных условий местности. Когда люди не проверяют свои предположения, они не могут приспособить правильные решения к меняющимся условиям. Когда операторы на переднем крае не могут эффективно обмениваться информацией по цепочке управления и между собой, возможности для выявления меняющихся условий и предположений о проблемах теряются в ущерб всем.

ИИ настолько уязвим для неверных данных, потому что мы уделяем слишком большое внимание его приложениям в классификации и распознавании и недооцениваем его приложения в предложениях и контекстуализации. Проще говоря, ИИ, который принимает решения за людей, — это ИИ, который можно легко и дешево саботировать.

Разработать антихрупкий ИИ сложно, потому что грань между принятием результатов анализа алгоритма в качестве заключения и обработкой их как предложения или подсказки является сложной задачей. Помните, что лица, принимающие решения, оптимизируют работу для экономии усилий, а это означает, что любая возможность, которая у них есть, чтобы принять вывод ИИ в качестве заключения, они воспользуются ею, если пользовательский опыт не спроектирован так, чтобы это усложнять. Эта тенденция лежит в основе катастрофических ошибок, которые мы уже видели при применении ИИ в уголовном правосудии и полиции . Модель была построена для контекстуализации, но пользовательский интерфейс был построен для вывода заключения; это сделало сам продукт чрезвычайно уязвимым для неверных данных.

Между тем, медицинский ИИ смог улучшить качество принятия решений именно потому, что многие диагностические задачи не имеют единственного правильного ответа. При диагностике любой набор симптомов имеет ряд возможных причин с разной вероятностью. Врач строит в своей голове дерево решений, включающее все возможные варианты, которые он может придумать, и тесты, которые исключат определенные возможности. Процесс диагностики пациента заключается в создании цикла определения предположений, упорядочивания тестов и дальнейшего сужения набора возможных ответов до тех пор, пока не будет найдено решение.

Продукты, которые предназначены для помощи, предлагая врачам другие возможности для добавления к их ментальным моделям и определения тестов, которые могут ускорить время до успешного диагноза, продемонстрировали улучшение результатов лечения пациентов, несмотря на плохие данные . ИИ в этих случаях использовался для улучшения коммуникации и обмена знаниями между медицинскими работниками или для получения новой и актуальной информации от пациента в критические моменты.

Продукты, которые пытаются превзойти врачей, например, классифицируя опухоль как злокачественную или доброкачественную или определяя, являются ли пятна в легких Covid-19 , страдают от проблем с неверными данными.

Сильный ИИ в мире плохих данных

При определении того, как наилучшим образом использовать перспективные технологии, такие как искусственный интеллект, техническим руководителям необходимо сначала подумать о том, как они определяют проблему, которую необходимо решить. Если цель ИИ — улучшить процесс принятия решений, то ИИ должен направлять лиц, принимающих решения, на проверку гипотез, а не пытаться превзойти экспертов. Когда ИИ пытается превзойти экспертов, он становится полностью зависимым от качества получаемых данных, создавая набор уязвимостей, которые злоумышленники могут легко и дешево использовать.

Когда цель искусственного интеллекта состоит не в том, чтобы помочь лучшим экспертам, а в том, чтобы укрепить и поддержать правильные методы принятия решений, эта технология устойчива к неверным данным и может стать антихрупкой. Но этот ИИ не делает определений. Вместо этого он помогает людям сформулировать предположения, лежащие в основе решения, сообщить эти предположения другим заинтересованным сторонам и предупредить лиц, принимающих решения, о значительных изменениях грунтовых условий, имеющих отношение к этим предположениям. ИИ может помочь лицам, принимающим решения, выяснить, какие состояния возможны или при каких условиях они возможны. Такое решение может улучшить общую производительность команды, устраняя существующие слабые места, а не изобретая новые, которые злоумышленники могут использовать.

Проблема искусственного интеллекта в психологии

 

Подписаться
Уведомить о
guest
0 Комментарий
Межтекстовые Отзывы
Посмотреть все комментарии