Главная страница «Первого сентября»Главная страница журнала «Информатика»Содержание №18/2009


Теоретические основы информатики

Искусственный интеллект: популярное введение для учителей и школьников

Нейронные сети (продолжение)

Персептрон и его обучение

Как отмечалось ранее, американские ученые У.Мак-Каллок и В.Питтс предложили математическую модель нейрона мозга человека, назвав ее математическим нейроном. Так же как и биологический нейрон, математический нейрон имеет несколько входов и один выход, может существовать в возбужденном и невозбужденном состояниях, причем переход в возбужденное состояние зависит от величины поступающих к нему сигналов и сил синаптических связей. Таким образом, математический нейрон весьма правдоподобно имитирует структуру и свойства своего прототипа — биологического нейрона мозга. На этом основании У.Мак-Каллок и В.Питтс высказали весьма смелое предположение, которое впоследствии легло в основу современной нейроинформатики. Они предположили, что если математические нейроны связать между собой проводниками, имитирующими нервные волокна (рис. 1), то такой искусственный мозг будет способен решать интеллектуальные задачи, подобно тому, как это делает естественный человеческий мозг.

Рис. 1. Математические нейроны, связанные между собой в нейронную сеть

Идея Мак-Каллока – Питтса была воплощена в жизнь в 1958 г. американским ученым Фрэнком Розенблаттом, также считающимся основателем нейроинформатики. Сначала он создал компьютерную программу для IBM-794, эмулирующую деятельность математических нейронов. Это была первая нейронная сеть, или сокращенно — нейросеть. Она была названа персептроном, от англ. слова perception — осознание.

Затем, спустя два года, Ф.Розенблатт смонтировал электронное устройство, в котором функции математических нейронов выполняли отдельные электросхемы, работающие на электронных лампах. Это был первый нейрокомпьютер, который успешно решал сложнейшую интеллектуальную задачу — распознавал буквы латинского алфавита, изображенные на карточках, подносимых к его считывающему устройству — электронному глазу.

Таким образом, смелая гипотеза Мак-Каллока – Питтса была блестяще подтверждена.

Но раз эксперимент удался, значит, оказались правильными наши представления о биологической структуре и строении мозга, о его внутренних электрофизиологических процессах, о способе запоминания и хранения информации. Была подтверждена адекватность математического нейрона, как модели биологического нейрона. Была подтверждена адекватность нейросети и нейрокомпьютера, как модели мозга. “Нельзя сказать, что мы точно воспроизводим работу человеческого мозга, — писал Ф.Розенблатт, — но пока персептрон ближе всего к истине”.

Разберем принцип действия персептрона на примере решения конкретных задач. На рис. 2 на с. 26 приведен один из простейших вариантов исполнения персептрона, предназначенного для классификации чисел на четные и нечетные. Представим себе матрицу из 12 фотоэлементов, расположенных в виде четырех горизонтальных рядов по три фотоэлемента в каждом ряду. На матрицу фотоэлементов накладывается карточка с изображением цифры, например, “4”, как изображено на рис. 2. Если на какой-либо фотоэлемент попадает фрагмент цифры, то этот фотоэлемент вырабатывает сигнал в виде единицы, в противном случае — ноль. На рис. 2 на первый фотоэлемент не попал фрагмент цифры, и поэтому его сигнал x1 = 0; на второй фотоэлемент попал фрагмент цифры, и поэтому он вырабатывает сигнал x2 = 1 и т.д.

Согласно формулам (1)–(2), математический нейрон выполняет суммирование входных сигналов xj, помноженных на синаптические веса wj, после чего результат суммирования S сравнивается с порогом чувствительности q и вырабатывается выходной сигнал y.

Первоначальные значения синаптических весов wj и порога чувствительности q Ф.Розенблатт задавал датчиком случайных чисел, поэтому на выходе персептрона случайным образом вырабатывался сигнал: либо 0, либо 1.

Задача состояла в следующем. Требовалось подобрать значения синаптических весов wj такими, чтобы выходной сигнал y принимал значение единица, если на карточке было изображено четное число, и ноль, если число было нечетным.

Эту задачу Ф.Розенблатт решил путем поочередного накладывания на фотоэлементы карточек и обучения персептрона, заключающегося в корректировке синаптических весов wj. Если, например, на вход персептрона предъявлялась карточка с цифрой “4” и выходной сигнал y случайно оказывался равным единице, означающей четность, то корректировать синаптические веса было не нужно, так как реакция персептрона правильна. А если выходной сигнал оказался равным нулю, что неправильно, то следовало увеличить (поощрить) веса тех активных входов, которые способствовали возбуждению нейрона. В данном случае увеличению подлежали w2, w11 и др.

Рис. 2. Персептрон,
классифицирующий числа на четные и нечетные

Следуя изложенной идее, можно сформулировать итерационный алгоритм корректировки синаптических весов, обеспечивающий обучение персептрона в нужном направлении.

Шаг 1. Датчиком случайных чисел всем синаптическим весам wj (j = 1, ..., 12) и порогу чувствительности нейрона присвоить некоторые малые случайные значения.

Шаг 2. Предъявить персептрону какую-либо цифру. Системой фотоэлементов вырабатывается входной вектор xj (j = 1, ..., 12).

Шаг 3. Нейрон выполняет взвешенное суммирование входных сигналов

и вырабатывает выходной сигнал y = 1, если S q, или y = 0, если S < q.

Шаг 4а. Если выходной сигнал правильный, то перейти на шаг 2.

Шаг 4б. Если выходной сигнал неправильный и равен нулю, то увеличить веса активных входов: добавить каждому синаптическому весу величину j-го входного сигнала

.

Тогда, если вход был неактивен, т.е. xj = 0, то j-й синаптический вес не изменится. Если же вход был активен, т.е. xj = 1, то j-й синаптический вес будет увеличен на 1.

Здесь и далее t означает номер итерации, которые в искусственном интеллекте называют эпохами; wj (t + 1) — новое значение (на новой эпохе) j-го синаптического веса; wj (t) — его старое значение (на предыдущей эпохе).

Шаг 4в. Если выходной сигнал неправильный и равен единице, то уменьшить веса активных входов, например, с помощью аналогичной формулы:

.

Шаг 5. Перейти на шаг 2 или завершить процесс обучения.

В приведенном здесь алгоритме шаг 4б называют первым правилом Хебба, а шаг 4ввторым правилом Хебба в честь канадского ученого-физиолога Д.О. Хебба, предложившего этот алгоритм в 1949 г.

Отметим, что правила Хебба удивительным образом напоминают процесс обучения ребенка или школьника методом “поощрения-наказания” (или дрессировки животного методом “кнута и пряника”). Обратим внимание также на то, что первоначальные значения синаптических весов задаются датчиком случайных чисел. Это соответствует тому, что при рождении человека или животного его мозг еще не накопил знаний и поэтому силы синаптических связей имеют какие-то случайные значения. Как и в случаях с ребенком, школьником и животным, обучаемыми методом “поощрения-наказания”, алгоритм обучения персептрона за конечное число попыток (их называют итерациями, или эпохами) может привести к цели — персептрон в конце концов усвоит необходимые знания, закодирует их в виде конкретных значений матрицы сил синаптических связей wj и с помощью этих знаний научится различать четные и нечетные числа.

Естественно, возникает вопрос, всегда ли алгоритм обучения персептрона приводит к желаемому результату. Ответ на этот вопрос дает теорема сходимости персептрона, формулируемая следующим образом:

Если существует множество значений весов, которые обеспечивают конкретное различение образов, то в конечном итоге алгоритм обучения персептрона приводит либо к этому множеству, либо к эквивалентному ему множеству, такому, что данное различение образов будет достигнуто.

В настоящее время считается, что по числу выполненных доказательств теорема сходимости персептрона занимает первое место в мире. Ранее самой доказанной в мире теоремой считалась теорема Пифагора.

Коротко о главном

Нейрокомпьютер, построенный по образу и подобию человеческого мозга, обученный по алгоритму, похожему на алгоритм обучения человека, оказался способным решать сложнейшую интеллектуальную задачу — классифицировать (распознавать) числа на четные и нечетные.

Рекомендации по проведению урока

Начать урок лучше с повторения предыдущего материала — спросить школьников, сколько нейронов имеет человеческий мозг и каким образом в нем хранятся знания, попросить нарисовать на доске схему математического нейрона и формулы, по которым он работает, построить график активационной функции.

Приступая к изложению нового материала, полезно обратить внимание на смелость (возможно, даже некоторую авантюрность) гипотезы Мак-Каллока – Питтса: “Если математические нейроны связать между собой проводниками, имитирующими нервные волокна, то такой искусственный мозг будет способен решать интеллектуальные задачи, подобно тому, как это делает естественный человеческий мозг”. Можно спросить учеников — верят ли они в то, что человеческий мозг так просто устроен, что его так легко можно моделировать на компьютере.

И вот, Вы сообщаете школьникам, что гипотеза Мак-Каллока – Питтса была блестяще подтверждена Розенблаттом. В 1958 г. им построен первый нейрокомпьютер, способный решать сложнейшую интеллектуальную задачу — распознавать цифры и буквы алфавита!

Затем вы предупреждаете учащихся о том, что сейчас им будет объяснен принцип действия нейрокомпьютера. Предупреждаете их о том, что сейчас очень важно понять этот принцип, что следующим уроком будет лабораторная работа, на которой школьники будут сами обучать компьютеры распознавать сначала цифры, а затем и буквы алфавита, причем не только печатные, но и рукописные, написанные самими школьниками.

Настроив таким образом аудиторию на серьезную работу, вы рисуете на доске рис. 2 и объясняете принцип действия персептрона, постоянно проводя аналогию с человеком. Вы напоминаете, что в мозге человека все знания хранятся в виде сил синаптических связей (синаптических весов wj). При появлении на свет у ребенка еще нет никаких знаний — синаптические веса имеют какие-то случайные значения, поэтому в алгоритме они задаются датчиком случайных чисел. Затем эти веса корректируются в зависимости от того, угадает ли персептрон правильный ответ. Полезно отметить, что процесс корректировки синаптических весов напоминает метод “поощрения-наказания”, широко применяемый в жизни при дрессировке животных и даже при обучении школьников.

В итоге учащиеся должны понимать принцип действия персептрона, классифицирующего числа на четные и нечетные, и знать алгоритм его обучения.

Вопросы с ответами

1. Чем отличается нейронная сеть от нейрокомпьютера?

Ответ: Нейронная сеть — это компьютерная программа, эмулирующая нейрокомпьютер на обычном компьютере. Нейрокомпьютер — это электронное устройство, в котором функции математических нейронов выполняют специальные электросхемы, называемые нейрочипами. Нейрокомпьютер — это нейронная сеть, выполненная “в железе”.

2. Каким образом вырабатываются входные сигналы , , , … персептрона, классифицирующего числа на четные и нечетные?

Ответ: На матрицу фотоэлементов (рис. 2) накладывается карточка с изображением цифры. Если на -й фотоэлемент матрицы попадает какой-либо фрагмент накладываемой цифры, то этот фотоэлемент вырабатывает сигнал . В противном случае .

3. Каким образом задаются первоначальные значения синаптических весов , , , … и как они затем корректируются?

Ответ: Они задаются датчиком случайных чисел, а затем корректируются по правилам Хебба.

4. В каком виде персептрон хранит знания, необходимые для распознавания цифр?

Ответ: В виде матрицы сил синаптических связей.

5. Какая теорема считается самой доказанной в мире?

Ответ: Теорема сходимости персептрона. Ранее самой доказанной в мире теоремой считалась теорема Пифагора.

6. Дайте формулировку теоремы сходимости персепт­рона.

Ответ: См. изложенный выше теоретический материал.

Дельта-правило и распознавание букв

Рассмотренный выше алгоритм обучения персептрона можно представить в более общей форме. Если через обозначить требуемый выходной сигнал (от слов desire response, что в переводе с английского означает — “желаемый отклик”), то на каждой эпохе можно определять разницу между требуемым ответом персептрона и реальным значением y, вычисляемым на его выходе:

.

Тогда:

— случай e = 0 соответствует шагу 4а;

— случай e > 0 соответствует шагу 4б;

— случай e < 0 соответствует шагу 4в.

Идея алгоритма обучения персептрона с помощью правил Хебба сохранится, если итерационный процесс вести по формулам

;                                        (7)

,                                                   (8)

где wj (t), wj (t + 1), — старое и новое значения весовых коэффициентов персептрона, j — номер входного сигнала.

Кроме того, можно получить аналогичную итерационную формулу для подстройки нейронного смещения b, если учесть, что его можно интерпретировать как вес w0   дополнительного входа x0, значение которого равно 1.

;                                   (9)

.                                               (10)

В итерационные формулы полезно ввести коэффициент скорости обучения h, с помощью которого можно управлять величиной коррекции синаптических весов и нейронного смещения:

;                                          (11)

.                                            (12)

При слишком больших значениях коэффициента обычно теряется устойчивость процесса обучения, тогда как при слишком малых — повышаются временные зат­раты. На практике коэффициент скорости обучения h обычно задают в пределах от 0,05 до 1.

Алгоритм обучения персептрона с использованием этих формул известен под названием дельта-правила.

Дальнейшее развитие идеи персептрона и алгоритмов обучения связано с усложнением его структуры и функциональных свойств. На рис. 3 представлена схема персептрона, предназначенного для распознавания букв русского алфавита. В отличие от предыдущей схемы такой персептрон имеет 33 нейрона: каждой букве алфавита соответствует свой нейрон. Полагается, что выход первого нейрона y1 должен быть равен единице, если персептрону предъявлена буква “А”, и равен нулю, если предъявляется любая другая буква. Выход второго нейрона y2 должен быть равен единице, если персептрону предъявлена буква “Б”, и равен нулю во всех остальных случаях. И так далее до буквы “Я”.

Алгоритм обучения данного персептрона выглядит следующим образом.

Шаг 1. Датчиком случайных чисел всем весовым коэффициентам и нейронным смещениям wi0 (i = 1,..., 33, j = 1, ..., 12) присваиваются некоторые малые случайные значения.

Шаг 2. Персептрону предъявляется какая-либо буква алфавита, системой фотоэлементов вырабатывается входной вектор xi ( j = 1, ..., 12). Сигналы дополнительных нейронных входов присваиваются единичными: x0 = 1.

Шаг 3. Каждый нейрон выполняет взвешенное суммирование входных сигналов

и вырабатывает выходной сигнал yi = 1, если Si 0; yi = 0, если Si < 0.

Шаг 4. Для каждого нейрона вычисляется его ошибка ei = di  - yi ,

где di — вектор правильных (желаемых) ответов персептрона, например, для буквы “А” d1 = 1, d2 = 0, …, d33 = 0 и т.д.

Шаг 5. Производится корректировка весовых коэффициентов и нейронных смещений:

где t — номер итерации (эпохи).

Шаг 6. Повторение шагов 25 необходимое количество раз.

Заметим, что в этом алгоритме формулы для корректировки нейронных смещений wi0   можно не писать, т.к. они будут выполняться автоматически, если цикл по индексу j начинать не от единицы, а от нуля.

Как уже отмечалось ранее, первый действующий персептрон был создан в 1958–1961 гг. Он был предназначен для распознавания букв латинского алфавита. Буквы, отпечатанные на карточках, поочередно накладывали на табло фотоэлементов и осуществляли процесс обучения персептрона согласно приведенному здесь алгоритму. После выполнения достаточно большого количества итераций персептрон научился безошибочно распознавать все буквы, участвовавшие в обучении. Таким образом, была подтверждена гипотеза о том, что компьютер, построенный по образу и подобию человеческого мозга, может решать интеллектуальные задачи, в частности — решать задачу распознавания образов.

Но это было не все. Помимо того, что персептрон научился распознавать знакомые образы, т.е. те образы, которые демонстрировались ему в процессе обучения, он успешно справлялся с распознаванием образов, которые “видел” впервые. Выяснилось, что персептрон оказался способным распознавать буквы, отпечатанные с небольшими искажениями и даже другим шрифтом, если шрифт не слишком сильно отличался от используемого при обучении персептрона.

Свойство мозга узнавать образы, которые ему встретились впервые, называется свойством обобщения. Это свойство было унаследовано персептроном непосредственно от его прототипа — мозга. Оно было унаследовано благодаря тому, что персептрон являлся адекватной моделью мозга, удачно отражающей как его структурные, так и функциональные качества. Именно свойство обобщения впоследствии позволило применять нейронные сети для решения широчайшего круга практических задач, недоступных для традиционных методов информатики. Именно благодаря этому свойству нейронные сети стали эффективнейшим инструментом научных исследований и практических приложений. Именно благодаря этому свойству нейросетевые и нейрокомпьютерные технологии заняли то лидирующее положение, которое они занимают в настоящее время (см. № 16/2009).

Коротко о главном

1. Дельта-правило — это алгоритм обучения персептрона, являющийся обобщением правил Хебба.

2. Персептрон можно обучить распознавать не только цифры, но и буквы. Такой персептрон должен иметь столько выходных нейронов, сколько букв требуется распознавать.

3. Персептрон обнаружил новое качество, унаследованное им от своего прототипа — мозга. Он научился распознавать не только те образы (в данном случае — буквы), на которых его обучали, но и образы, которые он “видел” впервые. Это свойство человеческого мозга называется свойством обобщения.

Рекомендации по проведению урока

Начать урок лучше с повторения предыдущего материала — нарисовать на доске схему персептрона, классифицирующего числа на четные и нечетные (рис. 2), расписать алгоритм обучения этого персептрона и задать школьникам вопросы:

— Как формируются входные сигналы x1, x2, x3 , …?

Ответ: Если на i-ю клеточку-фотоэлемент входного поля персептрона попал фрагмент цифры, то этот фотоэлемент вырабатывает сигнал xi = 1. В противном случае xi = 0.

— Каким образом задаются первоначальные значения синаптических весов w1, w2, w3 , … и как они затем корректируются?

Ответ: Они задаются датчиком случайных чисел, а затем корректируются по правилам Хебба.

Школьникам полезно напомнить, что в ходе выполнения лабораторной работы № 2 они убедились в работоспособности расписанного на доске алгоритма обучения персептрона. Они убедились в том, что персептрон научился классифицировать числа на четные и нечетные, и что идея персептрона действительно работает! И теперь, в течение ближайших семи уроков , школьники будут знакомиться с развитием этой великолепной идеи. Они будут знакомиться с обобщением алгоритмов обучения нейронных сетей.

И вот вам первое обобщение — дельта-правило (формулы (7) –(12)), из которого, как частный случай, следуют 1-е и 2-е правила Хебба. Объясняя суть дельта-правила, постарайтесь не стирать с доски схему персептрона, классифицирующего цифры на четные и нечетные.

Убедившись, что учащиеся вспомнили и понимают принцип действия персептрона, классифицирующего цифры, предложите им задание, предупредив, что задание сложное и рассчитано на фантазию школьников. Предложите им исправить нарисованный на доске персептрон так, чтобы он мог решать более сложную задачу — распознавать буквы русского алфавита. Пообещайте поощрить отличной оценкой справившегося с этим заданием школьника.

Если никто не сможет выполнить ваше задание в течение 5– 10 минут, выполните задание сами, воспользовавшись схемой рис. 3.

Излагая дальнейший материал, акцентируйте внимание на свойстве обобщения, которое персептрон заимствовал от своего прототипа — мозга. Это свойство заключается в умении узнавать не только те образы, на которых персептрон был обучен, но и те, которые он никогда “не видел”.

Скажите, что проявление этого свойства от персептрона его создатели не ожидали, что оно обнаружилось случайно, после того, как один нерадивый практикант-школьник пошутил, подложив на вход персептрона карточку с изображением буквы, которой во множестве обучающих примеров не было, и персептрон эту букву правильно распознал. Выяснилось, что персептрон оказался способным распознавать буквы, отпечатанные с небольшими искажениями и даже другим шрифтом, если шрифт не слишком сильно отличался от используемого при обучении персептрона.

Сообщите, что цель следующего урока (лабораторной работы) состоит как раз в том, чтобы убедиться, что персептрон действительно обладает свойством обобщения.

В результате учащиеся должны знать алгоритм обучения персептрона с помощью дельта-правила, понимать принцип действия персептрона, предназначенного для распознавания букв алфавита, понимать суть свойства обобщения.

Вопросы и задания с ответами и комментариями

1. Что подразумевается под введенными нами обозначениями di и yi? Чем они отличаются?

Ответ: di  — требуемый или желаемый выходной сигнал i-го нейрона персептрона, yi — его прогнозное значение, т.е. то, которое получилось в результате вычислений, производимых i-м нейроном.

2. Напишите формулу, с помощью которой вычисляется нейронная ошибка ei.

Ответ: ei = di - yi.

3. Напишите формулы, по которым согласно алгоритму дельта-правила корректируются синаптические веса и нейронные смещения.

Ответ:

4. Что такое коэффициент скорости обучения, для чего он нужен и в каких пределах его обычно задают? К чему приводят слишком большие и слишком маленькие значения скорости обучения?

Ответ: Коэффициент скорости обучения нужен для управления величиной коррекции синаптических весов и нейронного смещения. С помощью него можно ускорять или замедлять процесс обучения персептрона. На практике коэффициент скорости обучения обычно задают в пределах от 0,05 до 1. Завышенные значения скорости обучения могут привести к тому, что процесс обучения становится неустойчивым. Заниженные значения скорости обучения приводят к неоправданно большому времени обучения.

5. Чем отличается схема персептрона, предназначенного для классификации чисел на четные и нечетные, от схемы персептрона, распознающего буквы русского алфавита?

Ответ: Количеством выходных нейронов. Персептрон, предназначенный для классификации чисел, может иметь всего один выходной нейрон, а персептрон, предназначенный для распознавания букв русского алфавита , имеет 33 выходных нейрона.

6. Какое количество выходных нейронов должен иметь персептрон, предназначенный для распознавания букв английского алфавита?

Ответ: Английский алфавит содержит 26 букв. Такое же количество выходных нейронов должен иметь персептрон, предназначенный для их распознавания.

7. Какое количество выходных нейронов должен иметь персептрон, предназначенный для распознавания не только букв, но и цифр?

Ответ: Если персептрон предназначен для распознавания букв русского алфавита и десяти цифр, то он должен иметь выходных нейрона.

8. Что понимается под свойством обобщения, которым обладает мозг человека и его модель — персептрон?

Ответ: Под свойством обобщения понимается способность мозга и его модели — персептрона распознавать образы, которых не было во множестве обучающих примеров.

9. Как научить персептрон распознавать не только печатные, но и рукописные буквы?

Ответ: Надо включить во множество обучающих примеров образцы не только печатных, но и рукописных букв.

Лабораторная работа № 2:
“Классификация чисел на четные и нечетные”

Цель лабораторной работы, рабочее окно которой приведено ниже1, состоит в том, чтобы сформировать обучающие примеры и обучить персептрон классифицировать числа на четные и нечетные. Читая задания, появляющиеся в протоколе, школьники с помощью мыши рисуют на входном табло персептрона числа, а на выходе персептрона указывают принадлежность этих чисел к классу четных или нечетных. Рисование производится с нажатой левой кнопкой мыши, а стирание нарисованного — правой кнопкой. Каждая нарисованная цифра плавно опускается по экрану в нижнюю его часть, формируя множество обучающих примеров. Ход выполнения работы протоколируется. После того как накопится достаточно обучающих примеров, появляется кнопка “обучить”, при нажатии которой запускается алгоритм обучения персептрона, который иллюстрируется графиком сходимости. Наблюдая за построением этого графика, можно видеть, как ошибка обучения персептрона e убывает с каждой новой эпохой t. В правом верхнем углу имеется кнопка вызова теоретического материала.

Как и предыдущая, эта лабораторная работа обеспечивает диалог школьника и компьютера, практически не требующий вмешательства учителя. Поэтому перед началом работы учителю рекомендуется только напомнить теоретический материал, пройденный на предыдущем уроке (или попросить кого-либо из школьников выйти к доске и объяснить принцип действия персептрона, классифицирующего числа на четные и нечетные), а затем предоставить школьникам возможность самим запустить и выполнить все пункты заданий, появляющиеся в “Протоколе выполнения”. Выполнять их надо до тех пор, пока не появится сообщение об успешном выполнении всей лабораторной работы.

Пожалуйста, проследите, чтобы школьники рисовали цифры во весь рост и не экономили клеточки входного поля. Иначе могут возникнуть проблемы с обучением персептрона.

Желательно заострить внимание школьников на том, что задача распознавания и классификации чисел на самом деле является не такой уж простой, как кажется. Человеческий мозг справляется с подобными задачами довольно легко. На то он и мозг. Научить же компьютер отличать четные числа от нечетных (да еще написанные от руки) — это большой успех!

В результате выполнения лабораторной работы учащиеся должны убедиться на практике в способности персептрона научиться решать задачу классификации чисел на четные и нечетные.


1 Напоминаем, что лабораторные работы можно скачать с сайта http://www.LbAI.ru.

Лабораторные работы № 3
“Распознавание печатных букв” и № 4
“Распознавание печатных и рукописных букв”

Выполните загрузку лабораторной работы № 32. Согласно появляющемуся на экране протоколу выполнения задания, школьникам предлагается нарисовать на входном табло персептрона поочередно буквы A, B, C по три раза, каждый раз указывая мышкой на выходе персептрона на ту букву, которая нарисована. Нарисованные буквы плавно перемещаются в нижнюю часть экрана, где формируют множество обучающих примеров. После накопления достаточного количества примеров появляется кнопка “Обучить”, при нажатии на которую запускается алгоритм обучения персептрона, иллюстрируемый графиком сходимости, т.е. зависимости ошибки обучения от количества эпох обучения t.

Затем школьникам предлагается с помощью мыши выбрать любой пример из обучающего множества. Выбранная буква плавно поднимается вверх и помещается на вход персептрона, после чего школьники запускают процесс распознавания буквы путем нажатия кнопки “Распознать образ”.

После того как школьники убедятся в способности персептрона распознавать все образы из обучающего множества, им предлагается нарисовать на входном поле те же самые буквы снова и проверить, будет ли персептрон распознавать вновь нарисованные буквы. Естественно, школьники рисуют их с некоторыми отклонениями от тех букв, которые имеются в обучающем множестве. Это уже не те образы, на которых персептрон обучался. Если отклонения невелики, то персептрон распознает их правильно, проявляя свойство обобщения.

Здесь надо обратить внимание учащихся на свойство обобщения. Надо напомнить, что свойством узнавать невиданные ранее образы обладает исключительно мозг. Этим свойством обладает мозг каждого из школьников. В подтверждение этого феномена можно привести простой пример: на урок пришла школьница с нанесенным на лицо макияжем. В таком виде ее лицо еще никто не видел, но, несмотря на это, ее все легко узнают.

Но не надо забывать, что школьница может сделать такой макияж, что ее никто и не узнает. Примерно то же самое происходит и с персептроном. Если нарисованная школьниками буква сильно искажена, то персептрон может ее и не распознать. Ведь он всего лишь моделирует человеческий мозг, и поэтому наследует его свойства.

При выполнении лабораторной работы у школьников может возникнуть разочарование, связанное с тем, что персептрон распознает не все нарисованные ими буквы, т.е. свойство обобщения персептроном проявляется весьма слабо. Персептрон распознает только те буквы, которые не слишком сильно отличаются от букв обучающего множества. При введении сильно искаженных букв персептрон ошибается.

Разочаровавшимся школьникам надо объяснить, что целью лабораторной работы было убедиться хотя бы в слабом проявлении свойства обобщения и задать следующий вопрос: “А как можно усилить свойство обобщения? Как увеличить процент правильно распознанных букв?”.

В ответ желательно услышать, что нужно увеличить множество обучающих примеров, включив в него как можно больше букв с различным начертанием, а затем заново обучить персептрон.

Теперь задайте школьникам вопрос: “Как обучить персептрон распознавать не только печатные, но и рукописные буквы?”.

Дав немного подумать, приступайте к выполнению следующей лабораторной работы № 4, цель которой как раз в этом и состоит. Ниже на рисунке показано, как формируется множество обучающих примеров, обеспечивающее достижение указанной цели.

В результате учащиеся должны понять и глубоко изучить на практике принцип действия персептрона, убедиться в его способности распознавать образы, причем не только те, которые были в обучающем множестве примеров, убедиться на практике, что обобщающие способности персептрона ограничены и зависят от того множества примеров, на которых он обучался.


2 Напоминаем, что лабораторные работы можно скачать с сайта http://www.LbAI.ru.

Л.. Н.. Ясницкий

TopList