Взаимодействие человека с ИИ: антропологическая ловушка
25 АПРЕЛЯ / 2025
Сегодня я хотела бы затронуть важный антропологический вопрос: с кем именно коммуницирует человек, когда взаимодействует с искусственным интеллектом? На мой взгляд, в процессе такого общения происходит интересная трансформация: человек невольно персонифицирует своего цифрового собеседника, наделяя его качествами полноценного коммуникативного партнера.
Почему эта тема так важна для меня. Я уже четыре года работаю в компании, которая занимается разработкой продуктов для обучения и оценки на базе искусственного интеллекта..

В частности, последние месяцы мы проводим совместные исследования с лабораторией адаптивного обучения МГПУ. В данном проекте мы тестируем не только технические возможности искусственного интеллекта, но и более глубокие аспекты: насколько допустимо делегировать искусственному интеллекту функции принятия решений в образовательном процессе.

Хотя я считаю, что некоторые аспекты категорически нельзя автоматизировать, например, принятие решение о том, стоит ли человека допустить к изучению следующих тем исходя из качества его ответов, существуют и другие точки зрения. Именно поиск этой тонкой грани между человеческим и машинным в образовании является одной из ключевых задач нашего исследования.

В данной статье, меня интересует не столько техническая сторона вопроса, сколько антропологический аспект: как распределяется агентность между человеком и искусственным интеллектом в процессе их взаимодействия, и какие последствия это может иметь для нашего общества.

Под взаимодействием в статье понимается процесс обмена информацией между пользователем и системой. В его основе лежит принцип request-response, где каждый цикл включает в себя запрос от клиента или пользователя и ответ, возвращаемый системой.
Kryvenchuk, Yurii & Mykalov, Pavlo & Novytskyi, Yurii & Zakharchuk, Maryana & Malynovskyi, Yurii & Řepka, Michal. (2019). Analysis of the architecture of distributed systems for the reduction of loading high-load networks
Взаимодействие с ИИ в последние годы отличается следующей особенностью. Разработчики стремятся создать интерфейсы, максимально приближенные к человеческому общению: голосовые помощники, антропоморфные аватары и чат-боты, способных вести диалог с пользователем. Подобная антропоморфизация имеет двоякий эффект. С одной стороны, она способствует повышению доверия к системе и усиливает вовлеченность пользователя в процесс взаимодействия. С другой стороны, возникает риск формирования нереалистичных ожиданий, когда пользователь начинает приписывать системе человеческие качества и признаки разумности.

Особенно ярко это проявляется в так называемом эффекте зловещей долины, когда слишком реалистичное подобие человека вызывает у людей неприятие и даже страх. В таких случаях пользователь может ошибочно приписывать системе агентность и способность к самостоятельному принятию решений, что создает определенные когнитивные искажения в восприятии технологий искусственного интеллекта.

В ходе анализа современных исследований мы столкнулись с интересным феноменом: язык, используемый для описания взаимодействия с искусственным интеллектом, демонстрирует ярко выраженную антропоморфизацию. Мы привычно персонифицируем ИИ, говоря, что он "говорит", "отвечает", "анализирует", "понимает" и "распознает" – применяем те же термины, что и при описании человеческих когнитивных процессов. Особую актуальность проблема приобрела с развитием генеративного ИИ. Человек начинает приписывать системам агентность и человечность, взаимодействуя с ними как с активными участниками диалога.

Pauketat, Janet & Ladak, Ali & Anthis, Jacy. (2022). Artificial Intelligence, Morality, and Sentience (AIMS) Survey: 2021. 10.31234/osf.io/dzgsb.
Roe, Jasper & Furze, Leon & Perkins, Mike. (2024). Funhouse Mirror or Echo Chamber? A Methodological Approach to Teaching Critical AI Literacy Through Metaphors. 10.48550/arXiv.2411.14730.
Исследования выявили несколько ключевых метафор, через которые люди воспринимают искусственный интеллект.

  • Наиболее обезличенной является метафора эха в горах, где система лишь возвращает искаженный отклик на пользовательский запрос.
  • Следующая метафора представляет ИИ как зеркало, отражающее и интерпретирующее мысли, чувства и переживания человека.
  • Распространена также концепция интеллектуального помощника – визуального интерфейса, лишенного собственных эмоций и мнений, действующего исключительно как реагирующая программа.
  • Существует образ всемогущего, но обезличенного доброго помощника, выполняющего команды без проявления собственной воли.
  • Наиболее персонифицированной является метафора равноправного собеседника, где ИИ воспринимается как полноценный коммуникативный партнер.
Интересно, что даже в обезличенных метафорах присутствует неявная атрибуция ИИ определенного уровня агентности, что отражает сложность человеческого восприятия технологий искусственного интеллекта.

Возникает закономерный вопрос: а как технически устроено взаимодействие с ИИ и какие технологии стоят за диалогом между человеком и машиной? Дальше буду описывать с точки зрения опыта нашей компании (https://dailo.co).

Одним из наиболее востребованных инструментов является технология BERT – система, способная проводить семантический анализ текста. Принцип её работы заключается в векторном сравнении входящего текста с предварительно загруженным корпусом данных. Мы применяем эту технологию в обучающих диалогах, где пользователь осваивает навыки коммуникации, продаж, работы с возражениями и консультирования клиентов.

GPT-модели представляют собой другое направление развития технологий обработки естественного языка. Они способны генерировать тексты, используя сложный алгоритм прогнозирования следующего элемента (токена) на основе предыдущих. Это позволяет создавать логически связанные предложения и абзацы, формируя осмысленные тексты.

Особого внимания заслуживает технология Retrieval Augmented Generation, которую мы внедряем в адаптивные учебные системы. Она объединяет возможности GPT с конкретным контекстом, что позволяет модели генерировать ответы, строго соответствующие заданной области знаний.
Рассмотрим особенности взаимодействия пользователя с системой, построенной на базе BERT. В данном случае пользователь выступает в роли реактивного участника диалога, ограниченного заранее заданным сценарием. Его возможности определяются заложенными в систему параметрами, а взаимодействие происходит в рамках предопределенных алгоритмов.

Например, я проводила эксперимент со студентами педагогического направления исследовались их способности к рефлексии при принятии решений, а также возможности использования цифровых инструментов для решения школьных проблем в процессе проектирования уроков. В этом случае система позволила студентам рассмотреть и проанализировать кейсы, в которых они могли проявить рефлексию. Я бы могла обсудить эти кейсы в аудитории сама, но я все свои вопросы заложила в скрипт, тем самым мне удалось воспроизвести диалог меня как преподавателя с каждым из студентов, хотя общение происходило через цифровой интерфейс.

Интересной представляется ситуация, когда пользователь проявляет проактивность и самостоятельно создает сценарий для отработки навыков. Здесь возникает гипотеза о том, что взаимодействие происходит на уровне собственной деятельностной позиции пользователя. В таком диалоге отражаются принципы, правила и методы, которые человек считает правильными для конкретной ситуации.

Например, специалист по продажам, желая отработать технику презентации сложного продукта, может создать сценарий, включающий потенциально нестандартные ситуации из его профессиональной практики. В этом случае происходит взаимодействие с собственной профессиональной позицией, что открывает широкие возможности для исследования трансформации этой позиции и её формализации.

Данное направление представляет собой перспективное поле для дальнейших исследований, позволяющих изучить возможности формирования деятельностной позиции специалиста в процессе нескольких итераций создания подобных скриптов для собственной тренировки.

https://dailo.co
Давайте рассмотрим систему на основе GPT, которая позволяет нам вести диалог с искусственным интеллектом, обсуждая различные темы и получая ответы на основе обширного массива данных, на которых обучалась модель.

В основе работы каждой GPT-модели лежит процесс, называемый fine-tuning — тонкая настройка. После первоначального обучения на случайных фрагментах информации из интернета модель может быть дополнительно обучена с помощью специальных примеров. Разработчики "скармливают" системе образцы правильных ответов, которые она принимает за эталонные, и в процессе обучения модель корректирует свои внутренние параметры, или "веса", чтобы в дальнейшем воспроизводить подобные ответы при общении с пользователями через различные интерфейсы — будь то чат или другой способ взаимодействия.

Соответственно взаимодействуя с ИИ пользователь получает ответ по тому шаблону, который разработчик считал адекватным и правильным для этого ответа. А также пользователь взаимодействует с неким усредненным и наиболее распространенным мнением, относительно которого ИИ формирует наиболее вероятный текст.

Ярким примером такого подхода служит использование тьюторов на базе искусственного интеллекта для обучения студентов. Эта практика уже получила широкое распространение, и многие преподаватели создают собственные настройки для чатов, адаптируя их под нужды своих учеников. Когда мы используем подобную систему, мы взаимодействуем и с автором инструкции, на основе которой работает тьютор.

Особенно интересно взаимодействие происходит в том случае, когда пользователь сам создаёт промпты для системы. Именно через этот промпт мы определяем, как система должна нас обучать, как реагировать на наши запросы и какие давать ответы для максимально эффективного взаимодействия.

В этом случае мы вступаем в диалог сразу с несколькими сущностями:
  • с коллективным автором,
  • с разработчиками модели
  • с автором промпта или с собственной позицией, которую мы отразили в созданном промпте.
Источник: https://hechingerreport.org/proof-points-ai-tutor-harvard-physics/
Когда мы применяем технологию дополненной генерации (Retrieval Augmented Generation), процесс взаимодействия обретает особую сложность. В него органично вплетается текст, созданный автором учебника или иного контекстного материала, интегрированного в систему.

В ответах модели мы можем наблюдать удивительное переплетение: с одной стороны, проступает позиция автора учебного материала, с другой – отражается личностная позиция создателя промпта, задавшего характер работы системы в роли обучающего тьютора или иного виртуального персонажа.

Все ранее рассмотренные аспекты встраиваются в эту сложную систему, создавая многослойную структуру, где практически невозможно разграничить влияние каждого из авторов на формируемые искусственным интеллектом ответы.
Картинка из фильма "Матрица"
Вместо вывода хотелось бы поделиться метафорическим осмыслением всего вышесказанного. То, с чем мы вступаем во взаимодействие, напоминает конгломерат миллиардов машин, объединенных воедино. Это образование способно имитировать когнитивные функции человека, однако остается совокупностью множества механических элементов, не обретая собственной агентности.

Ключевой вопрос, который я хотела бы вынести на обсуждение: как сформировать у пользователя агентность при взаимодействии с системами искусственного интеллекта? На мой взгляд, единственный путь – сделать пользователя со-разработчиком этих систем. Необходимо предоставить ему возможность самостоятельно создавать промпты, конструировать системы под собственные задачи, тем самым отражая свою профессиональную позицию в том, как искусственный интеллект будет с ним взаимодействовать.

Таков мой ответ на данный момент. Искренне приглашаю к дискуссии – возможно, у вас есть иные решения, альтернативные точки зрения или ценные соображения по этому вопросу. Пишите комментарии с помощью иконки сообщения не забывайте, пожалуйста, сообщить, как вам ответить.
Close
Напишите свой комментарий
Нажимая на кнопку, вы даете согласие на обработку персональных данных


© 2010-2025 BlackBox Studio
Made on
Tilda