12.
и 12.2. В таблицах i - номера мод распределения f(x), участву;¦ ющие в эксперименте (считая слева по оси х моды с координа- 1 Тами 2, 4 ...), Z - модальность распределения /(х), j - номер цикла выбрасывания случайных начальных условий b(xfc,0), : поиска экстремума R. Таблица 12.1 просчитана для случая К =5, М=300 (число итераций по п), К*=0,02. В ней для каждого о в правой колонке представлено число мод рас; пределения /(х), найденных алгоритмом на данном j-м шаге J. выброса случайных начальных условий. В левой колонке Таблица 12.
i 2 3 3 Z 5 J 4 3 2 1 5 о = 2 3 4 3 5 = 0, 1 3 4 3 1 а = 2 3 3 2 5 = 2 2 3 2 1 о = 2 2 2 0 5 = 0, 2 2 1 0 1 а = 2 2 2 0 4 = 0, 0 2 1 0 1 а = 0 2 2 0 5 = 0, 0 1 1 0 1 Таблица 12.
j 4 8 12 16 20 Z=K„=2 4 5 6 6 1 0 1 2 2 Z=KD=1 0 3 1 2 Z=KD=2 2 3 0 1 предыдущие циклы, включая j-й. Такого же рода данные представлены в табл. 12.2 для случая Z=K , К*=0,01, М=100, о=0,5. Анализ результатов работы рассматриваемого алгоритма самообучения, представленных в табл. 12.1, 12.2, позволяет сделать выводы: 1) рассматриваемый алгоритм достаточно работоспособен при значительной сложности (Z) задачи самообучения; 2) экспериментальные результаты подтерждают теоретические выводы, сделанные в гл.
Из книги автора Галушкин Нейрокомпьютеры и их применение Теория нейронных сетей. Кн. 1.

В тексте могут быть ошибки (надо проверять по оригиналу и там могут быть изображения).