Разделение хромотографических піків нейросетями

Тип работы:
Реферат
Предмет:
Информатика, программирование


Узнать стоимость

Детальная информация о работе

Выдержка из работы

ТОМСЬКИЙ ДЕРЖАВНИЙ УНІВЕРСИТЕТ СИСТЕМ

УПРАВЛІННЯ І РАДІОЕЛЕКТРОНІКИ (ТУСУР)

Кафедра автоматизації обробки інформації (АОИ)

Творча работа

Програмна реалізація штучної нейронної мережі потреби ділити хроматографических пиков.

ОТЧЁТ

|Преподаватель |Студент гр. 425−2 | |________ Н. В. Петров |К.В. Водкин | | «» червня 1999 р. | «» червня 1999 р. |

1999

1 Необходимость

Однією з актуальних негараздів у хроматографії є виділення піків з їхньої суперпозиции ще точного розрахунку площі кожного з них.

Існує безліч статистичних методів вирішення цього завдання (метод найменших квадратів, метод головних компонент тощо. буд.). Однак у час найцікавіше підхід з допомогою у цій галузі штучних нейронних мереж (ИНС).

Штучні нейронные мережі перестають бути екзотикою. Останні роки розробки у цій галузі представляють великий інтерес як для ученого світла, але й практичних людей. Областей їх застосування безліч. Це автоматизація процесів розпізнавання образів, адаптивне управління, апроксимація функционалов, прогнозування, створення експертних систем, організація асоціативної пам’яті і ще приложения.

За позитивного рішення завдання виділення хроматографических піків з їхньої суперпозиции штучні нейронные мережі дають точніші результати, ніж методи статистики. Виділення виробляється шляхом прогнозування фронту піка, прихованого через суперпозиции з сусіднім, виходячи з на відкритій частині пика.

Метою згаданої роботи є підставою програмна реалізація штучної нейромережі, що забезпечить поділ піків на хроматограмме. 2 Теоретичне обоснование

Оскільки штучні нейронные мережі дозволяють апроксимувати функції, прогнозувати — їх можна чудово використовуватиме рішення справжньої проблеми: поділ хроматографических піків (див. додаток А).

Хроматографічні піки може бути як симетричними не симетричними і є перекрученими Гауссовыми функционалами. Навіть якщо пік описується деякою функцією від часу f (t), то, на хроматограф надходить суперпозиція піків, тому функція від часу відображувана з його екрані є як сума функцій всіх пиков:

[pic]

Тому образи піків, що є на хроматограмме, можуть бути надто спотворені, через накладень, а окремих випадках приховані другими.

Відкриті частини теж не надто искажённых піків дозволяють спрогнозувати приховану, й перелічити площа під пиком.

Метод прогнозування залежить від следующем:

1.)На входи нейронної мережі надходять звіти, причому бажано нормированные:

[pic]

[pic]-среднее значення вибірки тимчасових значень примеров-входов,

[pic]-их виправлена дисперсия.

2.)На виходи нейронної мережі подаються відповідні значення функції яка описує пік. Їх необхідно перетворити, що вони не перевершували 1, навіщо потрібно ділити на максимум выборки.

3.)После навчання мережі до не обходженого рівня помилки необхідно подати на вхід значення часу, у якому потрібно дізнатися значення функції. Отримане значення з прямою функціонуванні це і є прогнозована точка. Вона буде й додана в навчальну вибірку. І знову провести вище описані дії. Прогнозування виробляється до того часу, це тільки необходимо.

Доцільно паралельно проводити прогнозування суміжного піка. Прогнозна точка суміжного фронту сусіднього піка може бути отримана наступним способом:

1.) Подать паралельної мережі приклади сусіднього пика.

2.) Подать на додатковий вхід різницю між значенням суперпозиции у цій точці, й отриманим значенням у цій точці в сусідського пика.

3 Схема алгоритму поділу пиков

4 Методика навчання нейросети

Метод навчання нейромережі виходячи з алгоритму зворотного поширення є - поширення сигналів помилки від виходів нейромережі до її входам, у бік, зворотному прямому поширенню сигналів у звичайному режимі работы.

Нижче представлений методика навчання СР з допомогою процедури зворотного поширення будується так:

1. Подать на входи мережі одне із можливих образів й у режимі звичайного функціонування СР, коли сигнали поширюються від входів до виходам, розрахувати значення останніх. Нижче подана формула розрахунку виваженої суми весов:

[pic] (1) де M — число нейронів в шарі n-1 з урахуванням нейрона з їх постійним вихідним станом +1, задає усунення; yi (n-1)=xij (n) — i-ый вхід нейрона j шару n. yj (n) = f (sj (n)), де [pic] - сигмоид (2) yq (0)=Iq, де Iq — q-ая компонента вектора вхідного образа.

2. Розрахувати ((N) для вихідного шару по формуле:

[pic] (3)

Розрахувати зміни терезів (w (N) шару N по формуле:

[pic] (4)

3. Розрахувати ж для решти верств, n=N-1,… 1

1)((n) по формуле:

[pic] (5)

2) (w (n) по формуле (15)

4. Скоригувати все ваги в НС

[pic] (6)

5. Якщо помилка мережі істотна, перейти на крок 1. Інакше конец.

5 Схема алгоритму обучения

6 Заключение

У результаті справжньої роботи було розроблено та реалізована програмно штучна нейронна мережу. Програма написана серед Borland Delphi 3. Це гнучку систему, у якій ставиться кількість прихованих шарів і кількість нейронів у кожному їх. Кількість входів і виходів однаково одно одиниці. Над програмою провели тривалий експеримент, який тривав близько десятьох годин. Упродовж цього терміну нейронна мережу, реалізована у ній, навчалася по переднього фронту пика (см. додаток Р). Нейронна мережу складалася з 4-х шарів по 50 нейронів, і вихідного шару з однією нейроном. Мережа навчилася рівня помилки — 0,0016, за число ітерацій — 95 649.

Список використаних источников

1. С. Короткий. Нейронные мережі: алгоритм зворотного поширення. М. :Мир-1997.

2. Ф. Блум, А. Лейзерсон, Л. Хофстедтер, Мозок, розум і поведінку, М., Світ, 1988.

3. Постановка і можливі шляхи виконання завдання навчання нейронних мереж. Сервер: Neural Bench™.

4. А. В. Буцев Локальна апроксимація на штучних нейронних мережах. М. :АиТ. -1997-№ 4-стр. 127−136.

5. К. Дж. Анил, М. Мао. Введення у штучні нейронные сети.М.: Одкр. сист. -1998-№ 9-стр. 4−15.

6. А. Балахонцев. Абетка нейронних сестей: методи обучения.М.: Радиолюбитель. -1998. № 9-стр. 2−9.

Додаток А

Приклад суперпозиции піків та його истинностных фронтов

Додаток Б

Схема сети.

Додаток Г

Результати обучения

Рис. 1. Результат роботи программы

Рис. 2. Графік залежності помилки навчання від номери итерации

-----------------------

S

S

S

S

S

S

Слой1

Слой2

Слой3

S

S

S

S

Слой4

Подать на входи і виходи мережі приклади (нормоване час на вхід й формує відповідні значення піка на выход).

Провести навчання сети.

Помилка существенна

Да

Нет

Одержати в навченої мережі значення прогнозу шуканої точки.

Подать на входи і виходи паралельної мережі приклади сусіднього піка, суміжний фронт що потребує спрогнозировать.

Подать на додатковий вхід різницю між значенням суперпозиции у цій точці, й отриманим значенням у цій точці в першого пика.

Провести навчання сети.

Помилка существенна

Да

Нет

Одержати в паралельної мережі прогнозу шуканої точки суміжного фронта.

[pic]

Ініціалізація мережі. Присвоїти невеликі випадкові значення весам.

Подать на входи мережі одне із можливих образов

Розрахувати значення ошибки

[pic]

Розрахувати зважені суми [pic]для кожного нейрона і виходи [pic](1,2)

Розрахувати зміни терезів [pic](4)

Скоригувати все ваги в НС

[pic]

Чи є ще примеры

Да

Да

Нет

Нет

Помилка существенна

Мережа обучена

[pic]

?

ПоказатьСвернуть
Заполнить форму текущей работой