Распознавание образов на Python


Тип работы:  Реферат
Бесплатно:  Антиплагиат
Объем: 18 страниц
В избранное:   
МИНИСТЕРСТВО СЕЛЬСКОГО ХОЗЯЙСТВА РЕСПУБЛИКИ КАЗАХСТАН КАЗАХСКИЙ АГРОТЕХНИЧЕСКИЙ УНИВЕРСИТЕТ им. С.СЕЙФУЛЛИНА

Курсовой работа

ПРЕДМЕТ Разработка программных приложений средствами Python

ТЕМА Распознавание образов на Python

Выполнил(а): Амантай Айбек Амбзалұлы
(ФИО студента)

Проверил(а): Мазакова Баян Мусаевна
(ФИО преподавателя)

Нұр-сұлтан 2021 г

Содержание

Введение 2
Глава 1. Принципы распознавания образов 4
0.1 Система распознавание образов 4
0.2 Нейронные сети 7
0.3 Распознавание образов 10
Глава 2. Описание программного средства 11
3.1 Алгоритм 11
3.2 Техническая реализация 12
3.3 Описание пользовательского интерфейса 13
Техническое описание программы 19
Заключение 20
Список литературы 21

Введение

Кода специализирована для распознав ания цифр. Базой програмки представляется нейросеть, моделирующая неестественный интеллект, тем самым, дозволяя дрессировать програмку и запоминать манеры цифр, для верного определения их при последующем употребленье программы.
Значительность програмки определена известностью на рынке программных провиантов сходственного типа (для определения образов) и их широкого использования в КПК, смартфонах, ноутбуках, т. Программа для распознавания манеров разрабатывается многими бражками и является одним изо инноваторских провиантов на современном рынке.
Python -- самый быстровозрастающий диалект программирования за прошедшие порядочно лет. Про это рассказывает свидетельство StackOverflow после 2019 год. Выкладывайте разберёмся, вскую его любят создатели и оттого мы советуем инициирующим программерам испробовать его в свойстве основного языка.
Рассматривание манеров разыскивает множество утилитарных применений. Одним изо часто встречающихся явлется рассматривание лиц, иногда по изображению обусловливае тся положительный человек. Но распозавние манеров такое значите льно больше пространное понятие. Посредством него можно, например, переключить представление текста в печатные символы. Да рассматр ивание манеров темпераментно употребляется в компьютерном зрении, иногда роботы и прочие устройства могут распознавать людей и раз личные предметы.
Мишенью подлиннее серии заметок представляется порекомендовать нашу програмку различать символы, изпользуя ради данного технологии автомобильного преподавания в распознавании образов. Мы будем распознавать цифры, но эти технологии возможно разболтать для буквы алфавита, слова, личики -- словом, на всё. Просто, нежели затруднительнее

изображение, тем сложнее код, исключительно и всего. Но в случае букв и символов вс достаточно просто. Итак, будто это работает? В свой черед постоянно в программировании, мы элементарно соответственны сокрушить тему на части, вот и все будет хорошо. Что ж, приступим! Раньше всего вам нужно перекачать испытательные изображения,
какие мы будем распознавать. Они находятся здесь. Впоследствии распакуйте видеоархив и переместите директорию "images" туда, где вы будете организовывать ваш код. Следовательно, у нас сегодня потреблять несколько испытательных изображений, какие мы и будем использовать. Да у нас отдельно потреблять отображения цифр в папке "numbers".
Сегодня нам нужен диалект Python. Впрочем предоставленная группа заметок организовывался для Python 2. 7, всегда это также возможно подтвердить без каких-либо замороче к и на Python 3.
Впоследствии нам понадобятся библиотеки Matplotlib, NumPy и PIL (или по-другому Pillow). Элементарн ейший порядок их установки -- посредством крупнопакетный руково дитель pip.
Спустя конструкции Python перейдите в командную строку, cmd. exe ради Windows сиречь bash ради Linux, и наберите в ней.

Глава 1
Принципы распознавания образов

3.1 Система распознавания образов

Проблема определения (точнее, классификации) предмета устанавливается последующим образом. Присутствует кое-какой порядок кодирования предметов (например, писаных букв), присущих предварительно знаменитому окончательному силу классов C={C1,. ,Cq}, и кое-какое окончательное множество предметов (обучающее множество), про каждый из которых известно, какому классу он принадлежит. Необходимо воздвигнуть алгоритм, некоторый в любом случае входному объекту, не очень нужно относящемуся обучающему множеству, решает, какому классу данный предмет принадлежит, и осуществляет такое довольно хорошо. Свойство определения расценивается будто возможность (т. частота) погрешности систематизации для приятелем окончательном обилье предметов с заранее популярными выводами (тестовом множестве). Нормальная конструкция определения складывается из трех частей: извлечение признаков, фактически рассматривание и принятие решения. Извлечение признаков - такое преображение входных предметов к единообразному, малогабаритному и удобному варианту с утратой запрещающей доли содержащейся в объекте информации, легонько воздействующей для классификацию. Благоприятным оказывается понятие предмета точкой стереотипного евклидова места Rd, относящейся кое-какому прочному компакту (кубу, шару, сфере, . Размерность d обязана быть довольно внушительный для успешного (в резоне качества) определения и достаточно маленькой ради эффективного (в резоне скорости) определения - действительно такое распорядка много десятков. Порядок извлечения признаков зависит естественный и исходной шифровки предметов и

подбирается вручную. Например, траекторию мыши сиречь пера, первоначально закодированную последовательностью случайной длины (порядка сотни), складывающейся изо пар координат точки, комфортно кодировать последовательностью прочной длины пар коэффициентов аппроксимирующих траекторию полиномов маленький ступени (порядка десятка), конечно к тому же независимые члены возможно отбросить, как не воздействующие для классификацию. Желанные значения F в точках места признаков, определенных обучающему множеству, известны, этак что остается исключительно воздвигнуть в некотором резоне аппроксимирующее отображение. Свойство аппроксимации будет обследоваться не на всей площади определения, а исключительно для испытательном множестве. Интерпретацией почуянных возможностей воспламеняется раздельная через определения операция принятия решений, какая основывается вручную и не зависит ни от натуры входных объектов, ни от пространства признаков, ни от обучающих данных. Она зависит исключительно через того, ради что данная конструкция определения предназначена. Например, ежели она используется как безответственная гадалка, ведь она просто отпускает пункт преимущественно потенциального класса. Ежели она употребляется будто сознательная гадалка, то она отпускает пункт преимущественно потенциального класса, ежели его вероятность кардинально велико возможностей прочих классов, и откликается ``не знаю'' в антагонистическом случае. Ежели она употребляется ради генерации гипотез, то она отпускает номера много (например, пяти) преимущественно потенциальных классов и их вероятности. Бывало столетье для уроках чистописания первоклассников первоначально продолжительно принуждали представлять палочки, крючочки и кружочки, и исключительно после дрессировали объединять из них буквы. В реальной жизни люди также строчат (и распознают! ) буквы как последовательности незначительных стандартных элементов, однако не так единообразных, будто в прописях. Например, двух отвесные палочки, перечеркнутые горизонтальной, - это, вероятно, литера `Н'. И если отвесные

бациллы - не абсолютно бациллы или не абсолютно вертикальные, то все одинаково `Н'. если они сверху сближаются, ведь велико верно на `А', (а) что если горизонтальная бацилла располагается высоко, то на `П'. При машинном распознавании благоприятнее акцентировать не исключительно и не столько бациллы и крючочки, сколько методы их стыковки доброжелатель с другом: командированные в различные сторонки галочки, петельки, Т-образные ветвления и т. Предположим, что эта черновая пахота проделана, и изучаемый участок писаного текста закодирован нечто вроде очередности таковых характеристических элементов, упорядоченных когда-то налево одесную свысока вниз. сколь данная стройность подобна на букву `А'? Одинаковый вопрос ради всех других распознаваемых символов. Испытаем создать устройство одной буквы в варианте очередности элементов. Во- первых, литера возможно располагать порядочно кардинально разнообразных написаний (например, `А' треугольное, `А' треугольное с завитушками, `А' круглое, . ) и их нужно фасонировать отдельно. Во-вторых, аж одно начертание одной буквы в соотношении от почерка порождает различные очередности характеристических элементов. В-третьих, выключая справедливых написаний вращаются ошибочные (рука дрогнула, клякса, рукоятка нехорошо пишет, . Всех способностей не предусмотришь, оттого будем фасонировать исключительно порядочно преимущественно ежеминутно встречающихся вариантов и то, что выходит изо них небольшими возмущениями. Записывание очередности Qi1,. ,QiL изо L характеристических ингредиентов возложим детерминированному окончательному автомату.

3.2 Нейронные сети

Концепция нейронных сеток показался в 40-60-х годах в итоге корпоративных попыток физиологов и кибернетиков постичь и создать службу мозга. Удался последующая модель. Центр складывается из очень большого количества (порядка 1011) клеток (нейронов), всякая изо каких располагает продолговатый агент (аксон) и большое магелланово облако (порядка 104) ответвлений (дендритов), дотрагивающихся аксонов прочих нейронов иили входных рецепторов. Посредством данные площади прикосновения (синапсы) возможно сообщаться справка (электрохимический потенциал). Всякий неврон представляется простым компьютером: запас нейрона (и его аксона, играющего значимостей выхода) представляется функцией от потенциалов синапсов его дендритов (входов), притом функцией достаточно обусловленного вида. Как-то, всякий неврон располагает два стабильных состояния (возбужденное и невозбужденное) и сообразные им значения потенциала, одинакие ради всех нейронов. Всякий неврон исчисляет прямолинейную комбинацию потенциалов входных синапсов, сопоставляет ее с пороговым значением и переходит в взбудораженное (невозбужденное) положение ежели эта линейная композиция велико (соответственно, меньше) лиминального значения. В общей сложности центр исчисляет кое-какую вектор-функцию: несамостоятельность потенциалов нейронов (достаточно анализировать не все нейроны, а только объединенные своими аксонами с исполнителями) через потенциалов входных рецепторов. А вся индивидуальность службы мозга складывается в том, что пороговые значения (по одному для нейрон, всего распорядка 1011) и коэффициенты прямолинейных композиций (по одному на дендрит, всего распорядка 1015), поголовно говоря, многообразны и могут модифицироваться с временем. Это изменение коэффициентов величается обучением. Нейронная линию непосредственного

распространения - такое знающий непериодический дворянин с обилием вершин V и ребер E, вершины какого раздолбаны для пласты последующим образом: - свежий разряд складывается из вершин-истоков (входных рецепторов) v 0,1,. - ребра (синапсы), укладывающиеся в вершины (нейроны) (k+1)-го слоя, высаживаются из вершин (рецепторов сиречь нейронов) k-го слоя; - всегда стоки (выходные нейроны) vL,1,. ,yL,q относятся одному и именно этому L-му слою. Имеется спецификация нейронных сетей. Мультислойные нейронные узы Структура мультислойной нейронной узы (МНС) складывается из последовательно соединённых слоёв, где нейрон любого покрова своими входами объединен с всеми нейронами ранного слоя, а выходами - следующего. НС с двумя постановляющими покровами возможно с любой пунктуальностью аппроксимировать всякую многомерную функцию. НС с одним разрешающим покровом способна переформировывать прямолинейные делящие поверхности, что сильно сузивает участок проблем ими решаемых, в частности таковая линию не сумеет постановить задачку типа "исключающее или". НС с нелинейной функцией активации и двумя постановляющими покровами разрешает переформировывать каждые пластичные площади в пространстве решений, а с тремя постановляющими покровами - площади всякий сложности, в том количестве и невыпуклой. При всем при этом МНС не утрачивает своей обобщающей способности. Натаскиваются МНС через метода возвратного распространения ошибки, обнаруживающегося способом градиентного спуска в пространстве весов с мишенью минимизации итоговой погрешности сети. При всем при этом погрешности (точнее величины коррекции весов) испускается в обратном ... продолжение

Вы можете абсолютно на бесплатной основе полностью просмотреть эту работу через наше приложение.
Похожие работы
Архитектуры и алгоритмы нейронных сетей: от М1 до конволюционных моделей ассоциативной памяти
Обеспечение Безопасности Организации: Роль Систем Обнаружения Вторжений (IDS) в Защите Активов, Репутации и Данных Потребителей
Методы Распознавания Изображений и Обучения Нейронных Сетей в Компьютерном Зрении
Комплексное проектирование системы компьютерного сурдоперевода казахского жестового языка на основе морфологического анализа и семантической составляющей с учетом лексических особенностей и грамматических структур национального языка жестов
Разработка и исследование эффективных алгоритмов обработки естественного языка с использованием Keras и Python: теоретические аспекты и практические приложения в области искусственного интеллекта
Методы принятия решений в условиях неопределенности: дублирующих ветвей, булевых функций и машинного обучения для прогнозирования и оптимизации бизнес-процессов
Мой родной язык: Архитектуры Нейронных Сетей: от Рекуррентных до Конволюционных
Разработка Моделей Данных: Концептуальные, Логические и Физические Аспекты Создания Базы Данных для Эффективного Хранения и Использования Информации
Классификация и Профилирование в Интеллектуальных Информационных Системах: Теоретические Основы и Практические Приложения в Области Распознавания Эмоций и Анализа Данных
Распознавание Изображений: Теория и Практика Оптического Распознавания Текста
Дисциплины