Книга Совместимость. Как контролировать искусственный интеллект, страница 29. Автор книги Стюарт Рассел

Разделитель для чтения книг в онлайн библиотеке

Онлайн книга «Совместимость. Как контролировать искусственный интеллект»

Cтраница 29

Нам еще очень далеко до создания систем машинного обучения, достигающих или превосходящих способность кумулятивного обучения и открытий, которую демонстрирует ученое сообщество — или даже обычные люди на протяжении своей жизни [121]. Системы глубокого обученияГ по большей части основаны на данных: в лучшем случае мы можем заложить в структуру сети очень слабые формы предшествующего знания. Системы вероятностного программированияВ действительно позволяют использовать предшествующее знание в процессе обучения, что проявляется в структуре и словаре базы вероятностного знания, но у нас пока нет эффективных методов создания новых понятий и отношений и их использования для расширения этой базы знания.

Трудность заключается не в поиске гипотезы, хорошо согласующейся с данными; системы глубокого обучения способны находить гипотезы, которые согласуются с визуальными данными, и исследователи ИИ разработали программы символического обучения, которые могут резюмировать многие исторические открытия количественных законов науки [122]. Обучение автономного интеллектуального агента требует намного большего.

Во-первых, что следует включить в «данные», на которых делаются прогнозы? Например, в эксперименте LIGO модель прогнозирования степени растяжения и сжатия пространства по прибытии гравитационной волны учитывает массы сталкивающихся черных дыр, их орбитальную частоту и т. д., но не берет в расчет день недели или расписание бейсбольных матчей Высшей лиги. В то же время модель для предсказания дорожного движения на мосту через залив Сан-Франциско учитывает день недели и расписание бейсбольных матчей Высшей лиги, но игнорирует массы и орбитальные частоты сталкивающихся черных дыр. Аналогично программы, которые учатся распознавать типы объектов в изображениях, используют пиксели в качестве входных данных, тогда как программы, обучающиеся определять ценность антикварного предмета, хотели бы также знать, из чего он изготовлен, кем и когда, историю его использования и владения и т. д. Почему? Очевидно, потому что мы, люди, уже знаем что-то о гравитационных волнах, дорожном движении, визуальных изображениях и антиквариате. Мы используем это знание для принятия решений, какие входящие данные нам нужны для предсказания конкретного результата. Это так называемое конструирование признаков, и, чтобы выполнять его хорошо, нужно ясно понимать специфическую задачу прогнозирования.

Конечно, по-настоящему интеллектуальная машина не может зависеть от людей (конструирующих признаки), которые приходили бы ей на помощь всякий раз, когда нужно научиться чему-то новому. Она должна самостоятельно выяснять, что составляет обоснованное пространство гипотез для обучения. Предположительно, она делала бы это, привлекая широкий спектр релевантных знаний в разных формах, но в настоящее время у нас имеются лишь рудиментарные представления о том, как это осуществить [123]. Книга Нельсона Гудмена «Факты, вымысел и прогноз» — написанная в 1954 г. и являющаяся, пожалуй, самой важной и недооцененной книгой о машинном обучении [124], — вводит особый тип знания, так называемую сверхгипотезу, потому что это помогает очертить возможное пространство обоснованных гипотез. Например, в случае прогнозирования дорожного движения релевантная сверхгипотеза состояла бы в том, что день недели, время суток, местные события, недавние автоаварии, праздники, задержки доставки, погода, а также время восхода и захода солнца могут влиять на дорожную ситуацию. (Обратите внимание, что вы можете построить эту гипотезу на основе собственного базового знания мира, не будучи специалистом по дорожному движению.) Интеллектуальная обучающаяся система способна накапливать и использовать знание этого типа для того, чтобы формулировать и решать новые задачи обучения.

Второе, пожалуй, более важное, — это кумулятивная генерация новых понятий, таких как масса, ускорение, заряд, электрон и сила гравитации. Без этих понятий ученым (и обычным людям) пришлось бы по-своему интерпретировать Вселенную и делать прогнозы на основании необработанных сенсорных данных. Вместо этого Ньютон имел возможность работать с понятиями массы и ускорения, выработанными Галилеем и другими учеными, а Резерфорд смог установить, что атом состоит из положительно заряженного ядра, окруженного электронами, благодаря тому что понятие электрона уже было создано (многочисленными исследователями, продвигавшимися шаг за шагом) в конце XIX в. Действительно, все научные открытия делаются на многоярусных наслоениях понятий, приходящих со временем и опытом человечества.

В философии науки, особенно в начале XX в., открытие новых понятий нередко объяснялось действием эфемерной троицы: интуиции, озарения и вдохновения. Считалось, что все эти элементы неподвластны рациональному или алгоритмическому объяснению. Исследователи ИИ, включая Герберта Саймона [125], яростно спорили с этим подходом. Попросту говоря, если алгоритм машинного обучения может осуществлять поиск в пространстве гипотез, включающем возможность добавления определений новых терминов, не содержащихся во входном сигнале, то этот алгоритм способен открывать новые понятия.

Например, предположим, что робот пытается выучить правила игры в нарды, наблюдая за играющими людьми. Он наблюдает, как они бросают кости, и замечает, что иногда игроки перемещают три или четыре фишки, а не одну или две, и что это происходит после того, как выпадет 1–1, 2–2, 3–3, 4–4, 5–5 или 6–6. Если программа может добавить новое понятие дублей, определяемое как совпадение выпавших на двух кубиках результатов, то сможет намного лаконичнее выразить ту же самую прогностическую теорию. Это однозначный процесс, использующий такие методы, как индуктивное логическое программирование [126], для создания программ, предлагающих новые понятия и определения, чтобы формулировать точные и лаконичные теории.

Вход
Поиск по сайту
Ищем:
Календарь
Навигация