Как мы учимся. Почему мозг учится лучше, чем любая машина… пока - Станислас Деан Страница 17
Как мы учимся. Почему мозг учится лучше, чем любая машина… пока - Станислас Деан читать онлайн бесплатно
Ознакомительный фрагмент
Согласно данной точке зрения, научение состоит в анализе обширного набора утверждений, выраженных на языке мышления, и выборе того, которое наилучшим образом согласуется с данными. Как мы увидим далее, эта модель отлично описывает все, что происходит в мозге любого ребенка. Подобно начинающим ученым, дети формулируют теории и сравнивают их с внешним миром. Отсюда следует, что ментальные представления детей гораздо более структурированы, нежели представления современных искусственных нейросетей. С самого рождения мозг ребенка уже должен обладать двумя ключевыми составляющими: всеми механизмами, позволяющими генерировать множество абстрактных формул (комбинаторным языком мышления), и способностью выбирать из этих формул наиболее правдоподобные.
Таково наше новое видение мозга35: мозг – это огромная генеративная модель, в значительной степени структурированная и способная формулировать бесчисленное множество гипотетических правил и структур, но постепенно ограничивающаяся теми, которые максимально точно описывают реальность.
Как мозг выбирает наиболее подходящую гипотезу? По каким критериям он принимает или отвергает модель внешнего мира? Оказывается, для этого существует идеальная стратегия. Она лежит в основе одной из самых современных и продуктивных теорий научения – гипотезы о том, что мозг ведет себя как ученый. Согласно данной теории, учиться – значит рассуждать как хороший специалист по статистике, выбирающий из нескольких альтернативных теорий ту, у которой больше всего шансов оказаться верной. А какая теория вероятнее станет таковой? Разумеется, та, которая наилучшим образом объясняет имеющиеся данные.
Как же работает научное мышление? Когда ученые формулируют теорию, они не просто записывают математические формулы – они делают прогнозы. О силе теории судят по богатству исходных прогнозов, которые из нее вытекают. Последующее подтверждение или опровержение этих предсказаний ведет к подтверждению или крушению теории. Исследователи применяют простую логику: они формулируют несколько теорий, распутывают паутину вытекающих из них прогнозов и исключают теории, прогнозы которых опровергает опыт или наблюдения. Конечно, одного эксперимента редко бывает достаточно: зачастую, чтобы отделить истинное от ложного, приходится повторять эксперимент несколько раз, в разных лабораториях. И все же, перефразируя философа науки Карла Поппера (1902–1994), невежество постепенно отступает, ибо благодаря серии догадок и опровержений мы можем шаг за шагом уточнить теорию.
В этом плане наука сродни человеческому научению. По мере того как мозг успешно формулирует все более и более точные теории внешнего мира на основе наблюдений, невежество каждого из нас постепенно отступает. Но разве это не просто туманная метафора? Нет. По сути, это довольно точное описание вычислений, которые, судя по всему, производит мозг. За последние тридцать лет гипотеза «ребенка как ученого» привела к ряду крупных открытий относительно того, как дети рассуждают и учатся.
Математики и ученые в области вычислительной техники уже давно сформулировали лучший способ рассуждения в условиях неопределенности. Эту теорию называют байесовской, в честь ее создателя, преподобного Томаса Байеса (1702–1761), английского пресвитерианского пастора и математика, ставшего членом Королевского общества. Возможно, правда, нам следовало бы назвать ее теорией Лапласа, поскольку именно Пьер-Симон, маркиз де Лаплас (1749–1827) – великий французский математик – придал ей окончательную форму. Как бы то ни было, несмотря на свой почтенный «возраст», в когнитивистике и машинном обучении она получила известность лишь в последние лет двадцать. К счастью, сегодня все больше исследователей осознают, что только байесовский подход, основанный на теории вероятностей, позволяет извлекать максимум информации из каждой единицы данных. Учиться – значит делать как можно больше выводов из каждого наблюдения, даже самого неопределенного. Правило Байеса это гарантирует.
Что же обнаружили Байес и Лаплас? В двух словах – как правильно делать выводы, то есть рассуждать на базе вероятностей с тем, чтобы проследить каждое наблюдение до его наиболее вероятной причины. Вернемся к основам логики. С древнейших времен человечество умело рассуждать на базе истинностных значений: истинно или ложно. Аристотель сформулировал правила дедукции, которые мы называем силлогизмами и применяем более или менее интуитивно. Например, правило под названием modus tollens (букв. «метод отрицания») гласит, что если P подразумевает Q и оказывается, что Q ложно, то и P тоже ложно. Именно это правило Шерлок Холмс применяет в знаменитом рассказе «Серебряный» [14]:
Инспектор Грегори: Есть еще какие-то моменты, на которые вы советовали бы мне обратить внимание?
Холмс: На странное поведение собаки в ночь преступления.
Инспектор Грегори: Собаки? Но она никак себя не вела!
Холмс: Это-то и странно.
Шерлок рассудил, что если бы собака учуяла незнакомца, то непременно бы залаяла. Поскольку она этого не сделала, преступник, очевидно, не был посторонним человеком… Подобные рассуждения позволили знаменитому сыщику сузить круг подозреваемых и в конечном итоге разоблачить убийцу.
«Какое это имеет отношение к научению?» – наверняка спросите вы. Что ж, учиться – значит рассуждать как детектив: по сути, научение всегда сводится к анализу скрытых причин явлений и построению наиболее правдоподобной модели, которая ими управляет. Но в реальном мире наблюдения редко бывают истинными или ложными: они носят неопределенный и вероятностный характер. Вот тут-то в игру и вступают фундаментальные работы преподобного Байеса и маркиза де Лапласа: байесовская теория говорит нам, как мыслить вероятностями, то есть какие виды силлогизмов мы должны применять, когда данные не идеальные (истинные или ложные), а вероятностные.
Probability Theory: The Logic of Science («Теория вероятностей: Логика науки») – название увлекательной книги по байесовской теории, написанной статистиком Э.Т. Джейнсом (1922–1998)36. Оказывается, то, что мы называем вероятностью, есть не что иное, как выражение нашей неуверенности. Теория с математической точностью описывает законы, по которым должна развиваться неуверенность с каждым новым наблюдением. Фактически это идеальное расширение логики в туманную область вероятностей и неопределенностей.
Рассмотрим пример, схожий по духу с тем, на котором преподобный Байес основал свою теорию в XVIII веке. Предположим, я вижу, как кто-то подбрасывает монетку. Если монетка правильная (симметричная), вероятность выпадения орла и решки одинаковая: пятьдесят на пятьдесят. Исходя из этой предпосылки, классическая теория вероятностей подсказывает нам, как вычислить вероятность того или иного исхода (например, вероятность выпадения пяти решек подряд). Байесовская теория позволяет двигаться в противоположном направлении – от наблюдений к причинам. Она дает нам возможность ответить на вопросы вроде «после того как я подброшу монету несколько раз, должен ли я изменить свои представления о ней?». По умолчанию предполагается, что монета симметрична. Но если решка выпадет двадцать раз подряд, я поступлю разумно, если пересмотрю свои изначальные допущения: с этой монетой явно что-то не так. Очевидно, моя первоначальная гипотеза стала неправдоподобной, но насколько? Как именно мне обновлять мои убеждения после каждого наблюдения? В рамках теории каждому допущению присваивается номер, соответствующий степени правдоподобия или уровню доверия. С каждым последующим наблюдением это число изменяется на величину, пропорциональную степени невероятности наблюдаемого исхода. Как и в науке, чем невероятнее экспериментальное наблюдение, тем сильнее оно нарушает прогнозы первоначальной теории и с тем большей уверенностью мы можем отвергнуть эту теорию и искать альтернативные интерпретации.
Жалоба
Напишите нам, и мы в срочном порядке примем меры.
Комментарии