258. В темной комнате


Я вошел в комнату, чтобы взять из шкафа свои ботинки и носки. В комнате спала сестра, и было совсем темно. Я хорошо знал, в каком месте шкафа находятся мои три пары ботинок — все разных фасонов, и 12 пар носков — черных и коричневых. Мне не хотелось зажигать свет, чтобы не разбудить сестру.

Нейронные сети и нейрокомпьютеры


Биологический нейрон. Мы с вами обсудили проблемы, которые возникают при решении некоторых прикладных задач. Мы видим примеры, когда решение этих задач реализуется эффективно, а с помощью технических средств мы эту реализацию достигнуть не можем. И мы должны разобраться в чем природа этой эффективности. Конечно, биологической системе или мозгу тяжело сравниться со скоростью вычислений, которую делают Читать далее

Искусственные нейроны


То что мы сказали попробуем смоделировать. Представим нейрон в виде некоторого материального устройства или объекта. Базовым элементом искусственных нейронных сетей является линейный пороговый элемент, который также называется искусственным нейроном.

Нейронные сети


Нейронная сеть, как правило, состоит из 3 слоев: сенсорный слой или предварительная обработка(подготовка) данных, ассоциативный слой – обработка данных, эффекторный слой – формирование результата. Имеется несколько входных сигналов. Понятно, что каждый нейрон должен получать по возможности большее число сигналов. Это мы покажем следующим образом.

Обучение нейронных сетей


Фундаментальным свойством биологических нейронных сетей является способность к обучению. Самой интересной особенностью того, что есть на практике является возможность самообучения. Процесс обучения состоит из: 1. Настройка(выбор архитектуры сети). Когда возникает биологическая нейронная сеть, то там выбора архитектуры нет. Здесь мы вынуждены выбирать архитектуру, потому что реализация связей каждого нейрона с каждым является технически нереализуемой задачей.

Парадигма обучения


Парадигма обучения – это модель внешней среды, отражаемая в архитектуре сети и методы модификации весовых коэффициентов. То есть, парадигма обучения состоит из 2 частей: модели внешней среды, которая отражается в архитектуре. Это обязательно потому что у нас невозможно реализовать произвольную связь нейронов в нейронной сети, а значит надо ограничить класс решаемых задач, поэтому надо составить Читать далее

Правила обучения


1. Коррекция по ошибке. Заключается в следующем: происходит использование разностей Y-R нейронной сети для модификации весов, которая заключается в постепенном уменьшении ошибки при многократной подаче образов из обучающего множества. Что это означает? – подали вы какой-то образ; вычислили ошибку реальной отклик сети Y и тот, который должен быть R; зная эту ошибку, мы ее разбрасываем Читать далее

Алгоритм обратного распространения ошибки


Этот алгоритм является аналогом метода градиентного спуска. В этом случае для градиентного спуска мы должны знать как нам изменить коэффициенты, чтобы получить требуемое увеличение или уменьшение выходов на нейроны. Допустим есть нейрон (рис). Он описывается следующим уравнением: y=r(Swixi). если мы знаем, что функция больше требуемого значения, то зная производную при заданных xi , мы будем Читать далее

Системы цифровой обработки сигналов


Область цифровой обработки сигналов включает специфические алгоритмы обработки числовых данных, получаемых при аналого-цифровом преобразовании ( АЦП): — Измерительных ( электрических, механических сигналов) — Речевых — Видео

Теорема Котельникова


Если частотный спектр сигнала f(t) ограничен некоторым значением F, то этот сигнал может быть восстановлен после дискретизации без погрешностей по выборочным значениям, следующим с интервалом .

Дискретизация и квантование


Дискретизация – это преобразование аналогового сигнала в последовательность его выборочных значений, отстоящих друг от друга на время интервала дискретизации Dt. Вот у нас есть некая функция времени, которая представляется в виде функции имеющей непрерывное множество значений от f(max) до f(min). Выбираем некий начальный момент времени t1 и относительно него через, в частном случае равные, а Читать далее

Дискретное ортогональное преобразование


Любая ЦОС основана на разложении произвольной функции сигнала в ряд по некоторой системе ортогональных функций. Например, функции cos и sin являются ортогональными и можно разложить произвольную функцию в ряд по этим функциям. Оказывается некий произвольный сигнал мы можем представить в виде композиции более простых сигналов. Обобщая это можно записать, что произвольную функцию f(t) можно представить Читать далее

Цифровая фильтрация


Цифровая фильтрация есть многомерная и одномерная. В данном случае, цифровая фильтрация одномерного сигнала описывается следующим рекурентным уравнением: выходной отсчет в следующий момент времени есть . Это так называемый рекурсивный фильтр для фильтрации одномерных сигналов. Изменяя коэффициенты ak и bl можно задавать различные филтрации. ak и bl – это постоянные коэффициенты.

Структура курса Архитектура ЭВМ


1. Теоретические основы операционной обработки дан­ных 2. Процессоры 3. ЭВМ универсального назначения 4. Архитектура для языков высокого уровня

Теоретические основы операционной обработки данных


M – множество исходных сообщений. I – множество смыслов. a — правило интерпретации. b — правило обработки сообщений. b’- правило обработки информации a,a’-деклоративные знания, b’,b — процедурные знания, причем b — это алгоритм, а b’- то, что мы думаем об b.

Проектирование операционных автоматов


Методика синтеза Хафмена-Глушкова 1. Задание КА в формализованном виде (автоматная таблица, граф переходов, регулярное выражение, регулярная грамматика, источник). 2. Минимизация числа состояний автомата, детерминация источника.

Теорема Шенонна-Лупанова


Для любого ФПБ W(омега), число логических элементов необходимых для реализации произвольных функций от n k -значных переменных:, ,, где — константа, зависящая от выбора базиса (от n она не зависит), k – значность функции и независимых

Архитектурные принципы Неймана


Этапы проектирования дискретных устройств: 1. Системное (архитектурное) проектирование. 2. Логический (синтез). 3. Технический.

Арифметические принципы Немана


1. Реализация вычислительного средства в виде программируемого автомата, выполняющего обработку данных о программе. 2. Принцип хранимой программы и хранимых данных. Программа и данные хранятся в устройствах с линейной организационной памяти (с произвольным доступом, в отличие от МТ). 3. Последовательное выполнение команд низкого уровня. 4. Наличие средств ввода-вывода данных.

Архитектура процессора


Основываясь на МТ можно получить некоторые технические средства, которые позволяют реализовать нам эти подходы. Для того чтобы процессор мог реализовать любую обработку данных, необходимо обеспечить функциональную полноту операций выполняемых этим блоком. Арифметические многоразрядные операции {+,-,*} являются функционально-полными. Что касается других операций — это вопрос эффективности.

Операторные программы


Произвольную булевую функцию к-значной логики, используя некий функциональный базис, можно представить в виде схемы из логических элементов. Значит между схемами из логических элементов и булевыми функциями установлено некое соответсвие, хотя не взаимооднозначное. Пусть есть схема из логических элементов, представляющая или вычисляющая логическую функцию: a)Пронумеруем элементы схемы числами 1,2,3,..,к так, чтобы в любом пути от входа Читать далее

Операционный блок


Операционный блок (ОБ) занимается преобразованием данных. Управляющий блок (УБ) определяет какое преобразование данных нужно выполнить. УБ решает следующие задачи: 1. Выборка команды 2. Дешифрация команды и задание операции операционному блоку 3. Вычисление адреса следующей команды Потом повторяется тоже самое.

Управляющий блок


Для того чтобы реализовать с помощью использованного ранее ОБ необходимо сформировать распределенные во времени управляющие сигналы обеспечивающие выполнение обработки данных. Функциональная схема ОБ:

Микропрограммы


Микрооперацией называется элементарная операция выполняемая за 1 тактовый интервал и приводимая в действие одним управляющим сигналом (примеры:код операции сдвиг выход строб). Микрокоманда – это совокупность микроопераций выполняемых за 1 тактовый интервал.

Управляющий блок с «жесткой» логикой работы


Любой ОБ содержит фиксированное конечное количество микроопераций, которое он может выполнить, т.е. у нас есть N микроопераций. Возможно 2N микрокоманд. Если длина микропрограммы m, то у нас есть 2mN микропрограмм. Мы должны обеспечить возможность выдачи любой последовательности микрокоманд, каждая из которых состоит из произвольного количества микроопераций.

Функциональная схема блока «схема формирования команд»


Из теории известно что произвольную булевою функцию можно реализовать двухяростной схемой. Произвольная функция f(X1,X0) представима в следующем виде или же В 0-й степени – инверсное значение В не 0-й – не инверсное значение

Управляющий блок с хранимой в памяти логикой работы


Анализируя название темы возникает такой вопрос: Зачем нам логику работы УБ хранить в памяти? Самым сложным в современных процессорах является его логика работы. Логика заключается в том, что процессор на себя берет функции поддержки операционной системы. Чем больше времени проходит, тем усложняется сложность тех операций или команд, которые выполняет процессор, но сами операции, тот набор Читать далее