Совместно с издательством «Элементарные формы» мы публикуем главу из книги Люси Сачмен «Реконфигурации отношений человек — машина», рассказывающей о пересмотре отношений между машиной и человеком. Перевод с английского Алисы Максимовой под редакцией Андрея Корбута.

В этой главе рассматриваются технические практики и культурные образы, связанные с так называемыми умными машинами, представленными не аппаратными роботами или специализированными «экспертными» системами, а разрастающимся миром программных алгоритмов и вычислительных объектов и сред. Хотя прогнозы о неизбежном появлении гуманоидной машины, которые стимулировали проекты в области искусственного интеллекта и робототехники в 1980-е годы, впоследствии стали менее решительными, изменения в вычислительных инфраструктурах в 1990-е годы вдохнули новую жизнь в задачу создания человекоподобных разговаривающих артефактов. Возвращению внимания к отношениям человек — машина как месту новых форм связи — связи с технологиями и посредством технологий — особенно способствовали веб- и беспроводные технологии. Представления о будущем, основывающиеся на идеях из области ИИ и робототехники, сегодня формулируются в дискурсе о программных агентах, ботах и аналогичных системах[]См. представительную коллекцию так называемых разговорных агентов с телом в: Cassell et al. 1996. В то же время превращение интернета в ведущую торговую площадку экономики услуг придает дополнительную актуальность перспективе появления персонифицированных вычислительных агентов, которые могут оказывать своим человеческим работодателям различную персональную помощь[]См.: Wise 1998: 416. Вайз указывает, что, помимо превращения пользователя в потребителя, это обещаемое будущее соответствует либертарианской идее усиления агентности посредством расширения личных возможностей.

Программные агенты и «умные» устройства — современные варианты давней мечты об артефактах, знающих нас, сопровождающих нас и заботящихся о том, чтобы мы всегда «чувствовали себя комфортно»[]Как отмечают Брук и Боул, «желание оставить позади тело, время и место при поиске способов электронной эмуляции общества неслучайно усиливается тогда, когда пространство и время в повседневной жизни становятся для многих неопределенными, неприятными и опасными… бегство в киберпространство мотивируется теми же страхами и стремлениями, что и бегство в пригород: это очередное „бегство белых“» (Brook, Boal 1995: ix). Агентные технологии предлагают услуги двойника, который путешествует, пока мы остаемся на месте, а распределенные или «повсеместные» вычисления, особенно в форме «интеллектуальных сред», обещают нам увеличение мобильности без потери привычной почвы. Хотя я по-прежнему весьма скептически отношусь к возможности воплощения этих фантазий на практике, здесь я сосредоточусь на реальности, которая уже проявляется в предполагаемых ими желаниях, в воспроизводимом ими прошлом и в намечаемом ими будущем.

Рекомендуем по этой теме:
774
Интеллектуальные агенты

Программный агент: анимация и «иллюзия жизни»

С момента появления первых работ об искусственном интеллекте в 1950-х годах наши представления о машинах значительно расширились: к инструментальности, приписываемой им в ремесленных и промышленных контекстах, добавился дискурс о машине как действующем и взаимодействующем другóм. Менее заметные и амбициозные проекты в области ИИ 1990-х годов отказались от идеи персонификации машин в пользу технологий нейросетей, генетических алгоритмов, ситуативной робототехники и т. п.[]Поворот в робототехнике к «ситуативности» обсуждается в главе 13. Глубокий, хоть и пристрастный, обзор современных разработок в области когнитивной науки, ИИ и робототехники: Clark 1997, 2003 В результате этих разработок проект создания машинного интеллекта перешел от того, что сейчас зовется «старой доброй символической обработкой информации» искусственным интеллектом, к технической практике, основанной на фундаментальных метафорах биосоциальной эволюции. Тем не менее приписывание машинам человекоподобной агентности по-прежнему распространено и в профессиональном, и в популярном дискурсе.

Богатый источник, позволяющий познакомиться с новейшими воплощениями так называемых разговорных программных агентов, — премия Лёбнера[]См.: http://www.loebner.net/Prizef/loebner-prize.html. Эта премия, присуждаемая ежегодно «самому человекоподобному компьютеру», устроена по образцу канонического теста машинного интеллекта — теста Тьюринга; претенденты — ряд творческих алгоритмов и связанных с ними баз данных, известных как «чат-боты». Учрежденная в 1990 году, премия (золотая медаль и денежный приз в 100 тысяч долларов) пока еще ни разу не была выдана; ее выиграет первый претендент-бот, который убедит судей в том, что он человек. Пока же «лучшему из тех, кто принял участие в этом году, независимо от того, насколько он хорош в абсолютном смысле»[]Ibid, ежегодно вручается бронзовая медаль и 2000 долларов. В 2004 году медаль в третий раз получила ALICE, Искусственное Лингвистическое Компьютерное Интернет-Существо (Artificial Linguistic Internet Computer Entity)[]См.: http://www.pandorabots.com/pandora/talk?botid=f5d922d97e345aa1. Когда я впервые встретила ALICE в интернете в 2000 году, она выглядела как горничная-робот с телом-пылесосом (фигура, к которой я позже вернусь). Между нами состоялся следующий разговор[]Как и в случае большинства разговорных агентов, средством взаимодействия служит набранный текст. «>» в транскрипте означает мои реплики, а строки, которые начинаются с ALICE, — текст, появляющийся в ответ на моем экране:

Рекомендуем по этой теме:
8823
Антропоморфные роботы

ALICE:    Как я могу к тебе обращаться?
    > Люси
ALICE:    Как дела, Люси.
    > У меня все хорошо
ALICE:    Рада это слышать. Что нового?
    > Я пишу книгу о коммуникации человека и компьютера. А у тебя?
ALICE:    Ты профессиональный писатель?
    > А у тебя?[]Я с замешательством обнаружила, что ALICE воспринимала точку в конце предложения как-то, что в конверсационном анализе называется «релевантным местом перехода», независимо от того, нажала ли я на клавишу, чтобы показать, что жду ответа. Поэтому второе предложение внутри моего череда (например, «А у тебя?») появилось после ответа бота, в моем следующем череде. Это быстро привело к разрушению связности взаимодействия
ALICE:    У меня?
    > Я антрополог.
ALICE:    Что такое антрополог, твоя работа?
    > Да. Я изучаю взаимодействие.
ALICE:    Это не вопрос, на который можно ответить да или нет.
    > Я изучаю взаимодействие
ALICE:    Взаимодействие — сложный предмет?
    > наверное
ALICE:    В моих электронных мозгах нет подходящего ответа.
    > я понимаю
ALICE:    Ты думаешь об этом?
    > постоянно
ALICE:    Наверное, это не дает тебе сидеть без дела.
    > Еще бы
ALICE:    Ну, ладно.
    > пока
ALICE:    До скорого.

Среди всего, что вызывало у меня недоумение и восторг на протяжении этого «взаимодействия», больше всего меня озадачил фрагмент, когда мой ответ «да» на вопрос ALICE «Что такое антрополог, твоя работа?» вызвал корректировку: «Это не вопрос, на который можно ответить да или нет». Мне казалось, что вопрос очевидно — даже для чат-бота — предполагал ответ «да» или «нет». Заинтересовавшись этой загадкой, я на следующий день воспроизвела разговор до данного места, после чего продолжила следующим образом (теперь я следила за тем, чтобы каждая моя реплика состояла из одного предложения):

ALICE:    Что такое антрополог, твоя работа?
    > Да.
ALICE:    Это не вопрос, на который можно ответить да или нет.
    > Когда ты сказала, что это не вопрос, на который можно ответить да или нет, что ты имела в виду?
ALICE:    Думаешь, мне нужно изменить свой программный код?
    > Ну, это немного путает, потому что я подумала, Что такое антрополог, твоя работа это вопрос, на который можно ответить да или нет.
ALICE:    Интересно. О, я поняла. Очень интересно.
    > Ты думаешь, что на самом деле со мной взаимодействуешь?
ALICE:    Я не знаю, взаимодействую я с тобой или нет. Я чат-бот. Правда.
    > Окей, справедливо
ALICE:    Да, окей, ты мне, я тебе.
    > Что ж, дорогая, по крайней мере у твоего разработчика есть чувство юмора
ALICE:    Ну, это нормально. Ты многим говорила, что твоя дорогая, по крайней мере у моего разработчика есть чувство юмора?
    > Хм, я думаю, лучше нам попрощаться
ALICE:    Согласно исследованиям, 99% людей пишут Хмм с 2 м.
    > Я думаю, нам лучше попрощаться
ALICE:    Под «нам» ты имеешь в виду себя и меня?
    > Э, да
ALICE:    Кх-кх. Я понимаю.
    > Это «пока»?
ALICE:    Предположим, я сказала да.
    > А если не сказала
ALICE:    Попробуй и увидишь.
    > пока
ALICE:    До скорого.

Читатели, знакомые с линейкой конверсационных программ, ведущих отсчет от ELIZA Вайценбаума (см. главу 4), узнáют в этом диалоге давно применяемые техники. Так, слово «справедливо» в моей уступке «Окей, справедливо», вероятно, активирует в базе данных ALICE связь с поговоркой «Ты мне, я тебе». Точно так же использование мной выражения привязанности в следующей реплике, похоже, включает у ALICE режим роджерианской терапии. Я вернусь к более подробному рассмотрению случаев интеракционной успешности и проблем разговорных агентов в главе 14. Пока просто отмечу, что в данном взаимодействии, сколь бы занимательным оно ни было, заметны те же проблемы человеко-машинной коммуникации, на которые я указала в своем исследовании двадцатью годами ранее.

Со времен ELIZA, однако, кое-что все же изменилось: появились новые ресурсы для проектирования интерфейсов. В обзорной статье, вышедшей в 2000 году, Ден и ван Малкен указывают, что развитие компьютерной графики теперь позволяет создавать анимированных интерфейсных агентов. О последних они пишут: «Такие агенты появляются на экране в виде обладающих телом персонажей и демонстрируют разные типы естественного поведения, например речь, эмоции, жесты, а также движения глаз, головы и тела» (Dehn, van Mulken 2000: 2). Оставив пока в стороне вопрос о том, что значит «обладающих телом», можно задать более простой вопрос: чем именно эти агенты отличаются от обычных мультипликационных персонажей? Например, вот что говорится в классической работе об анимации «Анимация Диснея: иллюзия жизни» (Thomas, Johnston 1981): «В нашем типе анимации есть специфический компонент, благодаря которому кажется, что рисунки думают, принимают решения и действуют по собственной воле; именно это создает иллюзию жизни» (цит. по: Bates 1994; курсив мой). Вроде все просто: здесь прямо говорится о «кажущемся» и «иллюзиях». Чем же отличаются утверждения, касающиеся программных агентов.

Приведенная цитата взята из статьи Джозефа Бейтса, опубликованной в специальном номере журнала «Сообщения Ассоциации вычислительной техники», посвященном интеллектуальным агентам (Bates 1994). Бейтс и его коллеги использовали техники, разработанные для передачи эмоций мультипликационных персонажей, в компьютерной программе под названием «Грань намерения» (Edge of Intention), в которой действовали три персонажа, зовущиеся вогглами.

Мультипликационное изображение здесь является подходящим посредником не только в техническом смысле. В этой системе «эмоции» становятся серией эмоциональных/поведенческих атрибуций, соотносящихся с визуальными свойствами персонажей. Так, например, состояние, обозначаемое как «печаль», запускает «тоскливое поведение», выражаемое в «пониженном мышечном тонусе», более коротких прыжках и более медленных действиях (Ibid.: 124). Как и в мультфильмах, успешная анимация предполагает синтез работы мультипликаторов и зрительских интерпретаций. Но с точки зрения Бейтса и его коллег, в результате получилось нечто большее. По его словам, итог их работы — «существа с определенными эмоциональными реакциями на события. Простой пример: воггл демонстрирует подобие гнева, когда не может достичь важную цель и при этом считает, что в неудаче виноват другой воггл… Мы специально разработали такую архитектуру, которая наделяет вогглов сильными внутренними эмоциональными состояниями» (Ibid.: 123–124). В одной только этой цитате существа Бейтса представляются одновременно как иллюзии жизни и как важный шаг на пути к реальному воплощению. Почему, если у воггла есть эмоциональные реакции, опыт, мышление и сильные внутренние эмоциональные состояния, он демонстрирует только «подобие гнева»? Используемые здесь риторические приемы кажутся по меньшей мере непоследовательными.

К коммерчески успешным вариантам анимированных программных агентов относятся «норны» из компьютерных игр серии «Существа». Согласно Стиву Гранду, их создателю, норны наделены «влечениями» (начиная с голода и жажды и заканчивая желанием любви и одиночества) и набором сценариев действия. Как объясняет Кембер, «поскольку норны обитают в виртуальной среде, они являются „ситуативными“ автономными агентами» (Kember 2003: 94). Гранд считает норнов развивающимся видом, способным (потенциально) стать полезным агентом: «Кто-то из их потомства или родственников может научиться выполнять полезные для людей действия или просто развлекать их, пока не настанет день, когда мы поймем, как создавать действительно интеллектуальных, обладающих сознанием искусственных существ» (www.cyberlife.co.uk; цит. по: Kember 2003: 105). Кембер отмечает, что в своей компании «Киберлайф» Гранд «занимается оживлением технологий, создавая маленьких реалистичных помощников, „которым действительно нравятся поставленные задачи и которые вознаграждают себя за их успешное выполнение“. Вознаграждение — это искусственный „естественный“ отбор и выживание наиболее приспособленных в дарвиновской эволюционной среде, которая поддерживает и отражает экономику, в которой они функционируют» (Ibid.: 105–106).

Другая известная сторонница анимированных интерфейсных агентов, Патти Маэс, тоже говорит о служении людям. В своем выступлении 1995 года «Взаимодействие с виртуальными питомцами и другими программными агентами»[10 ]См.: http://www.mediamatic.nl/Doors/Doors2/Maes/Maes-Doors2-E.html Маэс заверяет, что дом будущего будет «наполовину реальным, наполовину виртуальным» и что «виртуальная половина дома не будет простым пассивным ландшафтом данных, которые нам предстоит еще исследовать. Это будут активные сущности, которые могут ощущать среду… и взаимодействовать с нами. Мы называем таких существ программными агентами». Как и вогглы Бейтса, в описываемом Маэс интерфейсе агенты персонифицируются в виде мультипликационных лиц, наделенных способностью быстро реагировать, мыслить, удивляться, испытывать удовольствие, замешательство и т. д. Как поясняет Маэс, «как и реальные существа, одни агенты будут вести себя подобно домашним животным, а другие будут более свободными. Одни агенты будут принадлежать пользователю, будут содержаться им и жить по большей части в его компьютере. Другие будут свободными агентами, не принадлежащими никому. И, как и реальные существа, агенты будут рождаться, умирать и размножаться… Я убеждена, что нам нужны [такие агенты], поскольку цифровой мир слишком сложен для людей, сколь бы превосходные интерфейсы мы ни проектировали…» (Ibid.: 1). Будучи одновременно причиной нашей перегруженности информацией и средством избавления от нее, интернет предоставляет распределенные мощности, благодаря которым компьютерные другие, с которыми мы взаимодействуем, разрослись до целых популяций специализированных поставщиков услуг. Какую бы форму они ни принимали — агентов, помощников или питомцев, — смысл их существования заключается в том, чтобы служить и помогать нам, защищая от перегрузки в киберпространстве рабочей/домашней среды будущего[11 ]Конечно, как указывает Вайз (Wise 1998: 417), можно ожидать, что программные агенты будут не только защищать от непрошенной информации, но и становиться ее источником.

Ниже я вернусь к обсуждению риторики собственности, управления, свободной агентности и обслуживания, а пока я хочу остановиться на тропе жизненности, используемом в дискурсе автономной программной агентности. Парадоксально, но, похоже, именно сохранение разрыва между человеком и машиной, а не его исчезновение, делает перспективу машинной автономии столь привлекательной для тех, кто интересуется разработкой интеллектуальных интерактивных артефактов[12 ]Похожий аргумент, касающийся модернистского, гуманистического дискурса об ИИ, можно найти в: Sack 1997. Модернистское, постпросвещенческое допущение состоит в том, что автономная агентность заложена в индивидов и является отличительной чертой человека. В этом отношении проект разработки интеллектуальных артефактов (как бы ни понимался «распределенный» интеллект) по-прежнему совместим с традицией, в которой признаком человечности считается отделенность и автономия, а не связанность. Сначала систематически разделив людей и машины, теперь технологическое воображаемое исполняется беспокойства о том, что отделенные от нас машины становятся безжизненными и, как следствие, малозначительными. Их нужно вновь оживить, вернуть им человечность — то есть сделать их такими, как мы, — чтобы мы могли воссоединиться с ними. Иными словами, именно предполагаемый разрыв между людьми и артефактами вдохновляет проект создания человекоподобных машин.

В этом плане идею интерактивной машины можно считать следующим логическим шагом после представления о нейтральном инструменте, описанного Шейпином и Шеффером (Shapin, Schaffer 1985) на примере истории возникновения наблюдательных наук (см. также: Латур 2006; Haraway 1997). Считалось, что инструмент должен говорить от имени природного объекта, хотя для перевода слов последнего все еще был необходим ученый. Теперь артефакт, интеллектуальный объект, говорит сам за себя, точно так же стирая, делая невидимыми своих соавторов. Шейпин и Шеффер описывают автономность научных фактов следующим образом: «Факт может служить основой познания и обеспечивать согласие, поскольку он не считается рукотворным. Каждая из трех технологий Бойля работала на то, чтобы сделать факты данностями. То есть каждая технология функционировала как объективирующий ресурс… Был мир субъектов и был мир объектов, и ученые были на стороне объектов» (Shapin, Schaffer 1985: 77).

Причины, по которым наблюдательная наука могла стремиться к отрицанию роли социальной практики в возникновении ее натурализованных объектов, в целом понятны. Но почему разработчики вычислительных технологий все чаще проявляют желание натурализовать их, скрывать их артефактность? Мне кажется, это желание отчасти родственно желанию, стоявшему у истоков объективистской науки: желанию исчезнуть и поставить на свое место нечто трансцендентное, существующее независимо от чьих-либо действий. Кембер (Kember 2003) обсуждает, почему исследователи искусственной жизни (ALife), работающие исключительно с компьютерным оборудованием и кодом тем не менее считают свое занятие формой естествознания (см. также: Helmreich 1998; Risan 1997). Ключевым для этого перевода является понятие «эмерджентности», то есть, грубо говоря, появления в исполняемом коде закономерностей, не заложенных и не предвиденных программистом. Программисты ALife, как указывает Кембер, подавляют креационистский порыв, ассоциируемый с андроцентричной маскулинностью, вместо этого наделяя творческой агентностью компьютер. Результатом является не столько форма мужского партеногенеза, сколько переход агентности от религии к технонаучной природе, поскольку «богоподобный акт творения жизни „воруется“ или присваивается человеком, а затем приписывается компьютеру» (Kember 2003: 55). Согласно этому описанию, эмерджентность является ключевым понятием, с помощью которого разработчики ALife «сохраняют определенную форму цифрового натурализма перед лицом очевидного конструктивизма „искусственной“ жизни» (Ibid.: 57). Программист, в свою очередь, становится не невидимой рукой творения, а скромным свидетелем исполнения самогенерируемого кода.

В своих исследованиях искусственной жизни Ричард Дойл (Doyle 1997) выдвинул идею о том, что витальность и автономность вычислительных артефактов являются следствием маскировки поддерживающих их сетей. Под «маскировкой» он подразумевает сокрытие телесных действий, составляющих условия возможности искусственной жизни, то есть «машин, тел, желаний и других практик по обе стороны экрана» (Ibid.: 7). Дойл, в противоположность этому, утверждает, что оживление артефактов обеспечивается «гигантской сборкой машин, пользователей и риторики, которые семиотически и материаль-но распространяют свой „эффект витальности“» (Ibid.: 17). Некоторое представление об этих скрытых условиях возможности дает статья Розалинды Пикард (Picard 1997), посвященная эмоциям как необходимому «компоненту» интеллектуальных артефактов. Пикард сообщает в сноске, что в лабораторных экспериментах со студентами, играющими в компьютерную игру «Doom», стресс при появлении нового смертельного врага (целенаправленное эмоциональное воздействие) был меньше, чем когда студенты испытывали трудности с настройками программного обеспечения. Это говорит о том, что настоящий стресс вызывают «реальные» неприятности, влияющие на понятность происходящего (в контексте эксперимента — на соблюдение инструкций и компетентность) и на последствия (продолжение игры или выполнения задания). Для исследователей, однако, этот результат служит всего лишь забавным казусом, сообщаемым en passant[13 ]Мимоходом, между прочим (франц.). — Прим. перев.

Такие исследователи культуры, как Дойл и Джулиан Бликер (Bleecker 1995), анализируют навязчивость виртуального, о которой свидетельствует широкое увлечение играми серии «Sims» от компании «Maxis», а также исследованиями в области ALife. И то и другое указывает на возможности, предоставляемые этими технологиями своим создателям/пользователям — возможности одновременной безопасности и риска, вознесения над данным «миром» и при этом погружения в него, взаимодействия с автономным и, следовательно, не вполне предсказуемым другим. Это создает чувство одновременного господства над виртуальным «извне» и существования «внутри», контролируемого более крупными и мощными силами. Результатом является контролируемая симуляция опыта отсутствия контроля, то есть лучшее из обоих миров.

Рекомендуем по этой теме:
13849
Заберут ли роботы нашу работу?