Rating@Mail.ru

Знаковые системы в искусственном интеллекте

Знаковые системы в искусственном интеллекте
мозг
Мозг
326 публикаций
15 Января 2018
Какие задачи умеет решать искусственный интеллект и смогут ли роботы испытывать эмоции

Системы искусственного интеллекта умеют получать информацию, распознавать картинки, речь, выполнять действия разной степени сложности. Но в перспективе искусственные системы должны наравне с человеком выполнять творческие задачи. К ним относится планирование деятельности и самостоятельное принятие решений. Одна из важных задач, которая сегодня стоит перед учеными, — снабдить искусственный интеллект подсистемой мотивации, которая управляет поведением.

Когнитивные науки и искусственный интеллект

Широкий спектр когнитивных наук занимается как познанием человека, так и изучением искусственного интеллекта. Психология, нейрофизиология, лингвистика нужны, чтобы понять, как человек думает. Конечно, большую роль в развитии искусственного интеллекта играют науки, которые не относятся к точному моделированию процесса познания, как, например, машинное обучение. Но в результате именно на искусственных системах проверяются те модели и теории, которые создаются в разных разделах когнитивистики.

В психологии знаковая система — это попытка перенести принципы человеческого мышления в искусственную сферу. Даже в лингвистике попытки построить универсальный анализатор естественного языка — это работа со знаками в психическом смысле, когда для человека разделяются синтаксис и семантика, то есть отделяются правила организации знаков от их сущности. При этом синтаксический и морфологический анализаторы оценивают наиболее сложные синтаксические правила, а семантический пробует встроить то, что мы выделили за каждым словом, в общую структуру знания. Например, из предложения «Кружка стоит на белом столе в аудитории» нужно извлечь смысл: это определенная аудитория, определенный стол, а у кружки, которая на нем стоит, есть определенная задача — чтобы из нее пили. Так небольшая синтаксически организованная структура — предложение — вызывает куда более богатый конструкт, в который входят объекты, скрывающиеся за этими словами.

На первый взгляд кажется, что в этом нет прямой связи с мышлением человека, но язык — это продукт сознания, так же как и сознание — продукт языка. В каком-то смысле изучать мышление человека можно по тому, как он пишет, но это достаточно опосредованно. А если смоделировать знак в психологическом смысле, мы узнаем, как думает человек.

Определение знака

У термина «знак» долгая история. Это междисциплинарное понятие, которое используют многие науки. В самом широком смысле слова знак — это соглашение, что некий объект несет определенный смысл. Предмет семиотики как науки не представляет сложности для понимания. Любой человек встречает знаки в обыденной жизни. Дорожные указатели или язык жестов — это все знаки, которые вы видите вокруг себя, и, рассматривая их, вы пытаетесь понять смысл.

В искусственном интеллекте нет собственного определения, трактовка термина зависит от науки, на которую опирается ученый. То есть если в искусственном интеллекте специалист работает над анализом текста, то он будет использовать лингвистическое определение; если задачи касаются мышления, то пригодится психологический термин.

Чарльз Пирс (1839–1914) — философ, логик, математик, основоположник прагматизма и семиотики.

Первым понятие знака в контексте науки рассмотрел Чарльз Пирс. Американский философ еще в XIX веке попытался формализовать значение термина. Первое определение знака — это то, что заменяет нам объект, с которым мы хотим работать и информацию о котором мы хотим получить. То есть ценность знака не в нем самом, а в том, что он замещает объект, который ценен и интересен. Если говорить о запрещающем сигнале светофора, то он важен не своим оттенком, а тем, что красный цвет предупреждает нас о потенциально опасной ситуации.

Пирс разработал и классификацию знаков: он выделил знаки-индексы, знаки-иконы и знаки-символы. Интереснее всего определены последние два типа. Знаки-иконы похожи на то, что они собой замещают, — звукоподражание или значок принтера на рабочем столе. В свою очередь, знаки-символы могут быть совершенно непохожими на то, что они собой замещают, это условное изображение объекта или понятия (например, украшенная елка — символ Нового года). Но любой знак, в том числе и знак-символ, — конвенциональное понятие, то есть о его значении нужно договориться.

Изображение: Знаковые системы в искусственном интеллекте — parallax 2 //
Фридрих Людвиг Готлоб Фреге (1848–1925) — немецкий логик, математик и философ. В работе Begriffsschrift («Исчисление понятий») пересмотрел ряд математических проблем и ввел ясную трактовку понятий функции и переменных.

Знаковая система, совокупность однообразно трактуемых сигналов, которыми обмениваются в процессе общения, присуща в первую очередь человеку. У животных, даже у высокоорганизованных обезьян, первостепенную важность несет сигнальная система, поэтому дихотомия сигнала и знака важна в семиотике. Сигнал похож на знак-индекс, это не договоренность, а прямое указание, неразрывная связь того, что означает сигнал, с тем, что он собой представляет, — как дым становится индексальным знаком огня. И здесь нет места договоренности, у этих событий прямая связь, а насчет знаков-символов можно передоговориться в любой момент.

Второй по важности человек для развития теории знака — немецкий логик Готлоб Фреге. Он предложил трехчастное определение знака: образ, его значение и передаваемый смысл. Отличие знака от смысла легко увидеть на примере с утренней и вечерней звездой. И то и другое — знак — это планета Венера. Но, несмотря на одно значение, смысл, который мы вкладываем в эти понятия, совершенно разный: утренняя звезда светит сразу после восхода солнца, вечерняя — после его захода. После Фреге логика стала больше работать над таким понятием, как интерпретация. Сопоставлять знак со смыслом, который за ним кроется, — это и есть процесс интерпретации.

 

image
Венера над горой Френч (Квинсленд)// Aleks Dahlberg, unsplash.com //

Наконец, важное имя для литературоведения и развития знаковой системы — Юрий Лотман. Советский литературовед и семиотик много сделал для искусственного интеллекта в России. В работах Лотмана появился термин «семиосфера» — это включение некоторых идеальных понятий, которые у Лотмана называются знаками.

Знак в психологии

В психологию понятие знака вошло больше семидесяти лет назад с работами Льва Выготского. Известный советский психолог предложил культурно-историческую теорию развития психики. По мнению Выготского, человек мыслит, развивается и обучается за счет включения в культуру: так он приобретает опыт и привносит его в свою внутреннюю сферу. Идеи Выготского развивал советский психолог и организатор науки Алексей Леонтьев. Он считал, что сознание — это результат совместной деятельности людей. При этом одни действия мы осуществляем, руководствуясь мотивом, другие направлены на достижение цели, отличной от мотива. В зависимости от условий каждое действие можно представить в виде набора операций.

Алексей Леонтьев (1903–1979) — психолог, философ, педагог и организатор науки. Под руководством Выготского работал над проблемами культурного развития памяти.

По Леонтьеву, сознание состоит из трех компонентов: образа (чувственной ткани), значения и личностного смысла. Значение — это конвенциональный термин, который представляет собой утвержденные в культуре способы взаимодействия с объектом или ситуацией, которую опосредует знак. Чувственная ткань — это ощущения, которые возникают у человека, когда он соприкасается с каким-то объектом действительности. Если значение — это функция того или иного объекта, то личностный смысл — это собственные цели, мотивы и ощущения от того, с чем соприкасается человек. Когда все три образующих пересекаются в одном предмете, появляется структура знака.

И хотя Леонтьев использовал другую терминологию, трехчастная структура знака по Фреге сохранилась. То есть образ, о котором говорил Фреге, — это то, что формируется внутри нас, когда мы наблюдаем знаки и то, что связано с представляемой сущностью. Часть знака — образ — воспринимают при помощи органов чувств. В потоке сенсорного сигнала человек выделяет объекты, у которых есть значение и смысл. Необязательно образ и чувственная ткань знака совпадают с чувственной тканью замещаемого объекта, но эти представления в нашем сознании некоторым образом связаны.

Семиотическое моделирование

Основное свойство искусственного интеллекта — выполнять функции, которые традиционно считаются прерогативой человека. Моделирование знаковой системы для проектирования, планирования и решения задач ведется с 1990-х годов, когда появилась прикладная семиотика. Это направление в науке связано с технической задачей представления знаний в компьютерных системах. При помощи семиотического моделирования можно описать, как функционирует система — биологическая, социальная или искусственная.

Некоторые компоненты знака хорошо воссоздаются. Так, значение можно представить в виде ролевой структуры или сюжета, которые в искусственном интеллекте научились моделировать в виде сети фреймов или семантических сетей. Хорошо моделируется образ: в искусственной системе функцию распознавания выполняет нейронная сеть и сообщает, какой именно объект присутствует на изображении. Не все так просто с моделированием личностного смысла: он тесно связан с эмоциональной сферой, но нет ни одной математической модели, которая может имитировать отношение к настоящему переживанию. Вообще говоря, к эмоциям у роботов стоит относиться скептически, ведь настоящая реакция на эмоции не выражается в правилах «поднять уголок рта» или «отправить смайлик». Чтобы сопереживать, искусственная система сама должна обладать эмоциональной сферой, но это маловероятно. В существующих системах нет перспектив для моделирования эмоций.

 

Изображение: Знаковые системы в искусственном интеллекте — parallax 10 //

Какие задачи решает искусственный интеллект

Цель специалистов по искусственному интеллекту не только в том, чтобы понять, как мыслит человек, но и попытаться решить практические задачи. Нужно научить искусственные системы действовать, планировать и ставить для себя цели, ориентируясь на постоянно меняющуюся ситуацию.

Сегодня неплохо получается моделировать операционную составляющую искусственного интеллекта, и эта задача решается классическими символьными способами. Можно заранее продумать и сохранить в памяти машины последовательность шагов, которые нужно совершить для реализации действия. Схема действий состоит из команд, подающихся на разные части физического устройства и приводящих в движение систему, которой управляет искусственный интеллект. Операционный состав действия из схемы образуется в реальных условиях — система реагирует на ситуацию и выбирает наиболее подходящую для этого программу действий, разработанную заранее.

Сейчас для искусственного интеллекта разрабатывается система планирования с использованием знаков. То есть вначале перебираются все схемы действия, выбираются наиболее подходящие, из них генерируется наиболее успешный для этой ситуации набор действий. Для планирования используют информацию, поступающую сенсорно.

А действия в зависимости от обстоятельств, заранее не предусмотренных, относятся в некотором роде к переживанию личностного смысла. Человека побуждают к действию цель и мотив. Последний придает нам сил, чтобы инициировать некоторые действия, но это проявление эмоций, которые пока неподвластны программированию. Поэтому личностный смысл в знаковой системе искусственного интеллекта пока не удалось воспроизвести.

Целеполагание — это проблема даже для человека. Чтобы понять, как действовать в сложной ситуации и к чему стремиться, люди обращаются к психологам-консультантам. Если научить искусственный интеллект ставить для себя новые цели, это поможет разобраться с множеством важных задач. Например, это решит вопрос со спасательными работами на месте взрыва или землетрясения.

Обычно в спасательных работах задействованы сотни специалистов, причем часть из них занимается управлением робототехническими системами, которые обследуют территорию и ищут пострадавших. Пока роботы не умеют автономно решать эти кажущиеся простыми операции, потому что не умеют ставить подзадачи, достигая общей цели инспектирования места разрушения. В таких средах мы не можем заранее предсказать, что встретится на пути робота. Например, если его первоначальная цель — добраться до определенного участка, но на пути ему попадается пострадавший, то нужно сориентироваться и создать для себя новую цель — сообщить спасателям о выживших. В постоянно меняющихся условиях невозможно заранее предвидеть все исходы ситуации, поэтому специалисты в области искусственного интеллекта не могут описать ее так, чтобы составить правила поведения для искусственной системы, — робот должен самостоятельно менять цели. Если эту проблему удастся решить, то робототехнические системы станут более полезными и автономными.

Какое будущее у знаковых систем

Серьезные работы, связанные с целеполаганием роботов, появились уже после 2010 года. В США неплохие результаты получил Дэвид Аха, специалист Naval research laboratory. Метод называется Goal-Driven Autonomy — целенаправленная автономность, в качества инструментария там используется логика первого порядка. При помощи знаковой системы можно существенно повысить уровень автономности. Пока успех заключается в том, что мы немного расширяем понятие неожиданности изменений ситуаций, то есть реагируем на чуть более сложные изменения. Но спектр целей, которые заново может построить и выбрать агент, все еще ограничен. И знаковое представление перспективно, потому что в качестве моделируемого объекта можно представить куда более сложную структуру, чем просто набор предикатов.

Работа мозга и искусственный интеллект

За рубежом есть проекты, которые изучают нейрофизиологические механизмы и объясняют, как функционирует знаковая система. Например, цель проекта Human Brain Project в том, чтобы составить компьютерные модели реализации когнитивных функций подструктурами мозга. С помощью таких моделей можно предсказывать поведение мозга в случае, если какая-то из его частей отключается или работает неправильно.

Построение компьютерных моделей — это очень широкая область. В лаборатории динамических интеллектуальных систем мы использовали одну из моделей, чтобы создать компьютерную реализацию для компонентов знака. Так как пока только человек пользуется знаковой системой и это происходит за счет нейронных субстратов, пока в микроскопе не увидели ничего, кроме нейронов, глий и тех веществ, которые возникают в процессе их жизнедеятельности; так как проявление сознания человека во многом знаковое, то мы можем, используя эту модель, предсказывать некоторые патологии в знаковых системах, а также давать рекомендации по поводу терапии и психологической работы.

Но объяснение патологических явлений в мозге человека — это существенный задел на будущее. В существующей сейчас схеме очень много пропусков. Пока есть элементарные модели, показывающие, как простейшие когнитивные функции реализуются на знаковом уровне, например процесс категоризации. Более сложные процессы вроде поведения человека в зависимости от его картины мира объяснить сложнее. Понятно, как они возникают, но какую-либо коррекцию пока не провести.

Перед Human Brain Project стоит задача возвращения когнитивной функции в норму, но нет необходимости связывать это с психологической знаковой картиной мира. Хотя уже сейчас в числе успехов можно перечислить терапию, для того чтобы реже возникали эпилептические припадки или борьба с развивающейся болезнью Паркинсона. И на этом базисе можно построить более сложные модели.

 

Александр Панов
Александр Панов
кандидат физико-математических наук, старший научный сотрудник Федерального исследовательского центра «Информатика и управление» РАН, доцент МФТИ