ПостНаука продолжает рассказывать о современных технологиях в проекте «Банк знаний», подготовленном совместно с Корпоративным университетом Сбербанка.

Информация и данные, алгоритмы и структуры данных

По ссылке можно посмотреть прекрасное введение в проблематику алгоритмизации и рассказ о сложности ответа на вопрос «Что такое алгоритм?».

Рекомендуем по этой теме:
18823
Эволюция интернета вещей

Большие данные (Big Data)

Объемные, быстро растущие в количестве и многообразные по структуре и типам информации данные. Также под этим термином понимается совокупность технологий для работы с большими массивами данных. В бытовом смысле большими данными часто считают то, что принципиально не помещается на отдельный «сервер». Термин появился в 2008 году благодаря статье редактора Nature Клиффорда Линча и сразу был подхвачен маркетологами. Всплеск интереса к большим данным во многом связан с ростом вычислительных мощностей, позволяющих их обрабатывать. Одни из наиболее важных источников больших данных — интернет вещей и социальные медиа.

Эксплицитное и имплицитное знание

Исторически у знания (knowledge) даже больше определений, чем у информации. Можно сказать, что знания — это данные вместе с методами применения этих данных либо знания — это данные, объясняющие, как использовать другие данные. Можно долго обсуждать необходимость учета субъекта, обладающего знаниями и применяющего знания, — человека. Задачу усложняет формализация в информатике понятия метаданных (metadata), то есть данных, описывающих другие данные. Метаданные участвуют в определении классической тройки «формат — интерфейс — протокол».

Особо важным в связи с развитием искусственного интеллекта стало различение явного (эксплицитного) и неявного (имплицитного) знания. Это различие связано с ответом на вопросы «Можно ли передать знание от одного субъекта другому и насколько полно?» и «Сможет ли субъект применить переданное ему знание для решения задачи?». Сейчас эти вопросы обсуждаются сразу в нескольких областях, из которых выделим онтологическое моделирование, где онтологией называются такие знания, которые Том Грубер в 1993 году определил как «эксплицитную спецификацию концептуализации».

Сильный и слабый искусственный интеллект

Предполагается, что искусственный интеллект может быть способен мыслить и осознавать себя, пусть и не так, как это делает человек, — такой искусственный интеллект называют сильным (Strong AI или True AI). Сильный искусственный интеллект может принимать решения, действовать в условиях неопределенности, решать головоломки, и, что особенно важно, у него есть общая система знаний, представлений о мире и реальности, что позволяет ему обучаться, планировать и общаться на любую тему. Слабый искусственный интеллект (Weak AI или Narrow AI) на это не способен, но позволяет решать задачи, которые традиционно считались творческими. Большинство сегодняшних разработок относятся к слабому ИИ. С его помощью мы пытаемся автоматизировать некоторые процессы принятия решения, задачи распознавания и генерации образов. В частности, традиционно к слабому ИИ относят классическое машинное обучение.

Тест Тьюринга

Тест, предложенный Аланом Тьюрингом в 1950 году. Цель теста — определить, может ли машина мыслить неотличимо от человека. Предполагается, что программа, поддерживая диалог с экспериментатором в текстовом режиме, должна ввести его в заблуждение и убедить, что он беседует с настоящим человеком. Тест проводится в форме разговоров как с человеком, так и с компьютером. Тест считается пройденным, если экспериментатор примерно в половине случаев верно отвечает на вопрос «Говорите ли вы с компьютером?». У теста Тьюринга существует множество вариантов, а также проводится конкурс на премию Лёбнера (Loebner prize), на котором разработчики представляют свои программы для прохождения теста Тьюринга.

Зима AI

Термин впервые появился в 1984 году и означает период спада интереса к разработке искусственного интеллекта. Выделяется две «зимы»: 1974–1980 годы и 1987–1993 годы. С первым периодом связан первый неудачный опыт машинного перевода (1966), неудачи в развитии идей коннекционизма (моделирование мыслительных или поведенческих явлений как процессов становления в сетях из связанных между собой простых элементов) и в целом спад количества исследований на эту тему в ведущих международных центрах. В 1987 году резко снизился интерес к Лисп-машинам (в том числе из-за закона Мура), хотя десятилетием ранее они считались перспективной платформой для разработки искусственного интеллекта, а к 1993 году из активного обращения вышло первое поколение так называемых экспертных систем, основанных на текстовом человеко-машинном интерфейсе: их вытеснили графические системы. Одной из наиболее пострадавших областей считается область исследования нейронных сетей. Многими исследователями обсуждается приход в начале 2020-х годов новой зимы AI.