Что такое кодирование информации: Учебная и научная деятельность Анисимова Владимира Викторовича

Содержание

Информация. Кодирование информации

Этот урок посвящён обобщению материала по теме. Сегодня мы с вами вспомним, что такое информация, как кодируется текстовая, графическая и звуковая информация в компьютере, а также, как представляется числовая информация в компьютере.

Начнём мы с вами с определения информации.

Информация – это сведения о предметах, событиях, явлениях и процессах окружающего мира. Она представляется и передаётся в форме знаков, рисунков, фотографий, схем; в виде световых или звуковых сигналов; в виде жестов и мимики; в виде запахов и вкусовых ощущений.

Информацию можно рассматривать с двух сторон: с точки зрения человека и с точки зрения компьютера.

Мы с вами будем рассматривать информацию с точки зрения компьютера. Для этого необходимо представить информацию в форме, понятной для компьютера, то есть в виде битов и двоичных кодов.

Минимальной единицей измерения информации принято считать 1 бит.

Разберёмся на примере.

Вычислить, какой объём информации будет занимать книга в электронном варианте, если известно, что книга содержит 16 страниц. На каждой странице – 16 строк, а в каждой строке – по 24 символа вместе с пробелами. 1 символ = 1 байту.

Для подсчёта объёма информации нам необходимо узнать количество символов в книге. Для этого умножаем количество страниц (16), на количество строк на каждой странице (также на 16), и на количество символов в каждой строке вместе с пробелами, то есть на 24.

16 · 16 · 24 = 6144 (символа).

Также мы с вами знаем, что 1 символ = 1 байту. То есть весь учебник в электронном варианте будет занимать объём, равный 6144 байтам.

6144 : 1024 = 6 (Кбайт).

Или же 6 Кбайт.

А сейчас давайте вспомним единицы измерения информации:

1 байт = 8 бит;

1 Кбайт (килобайт) = 1024 байта = 210 байт;

1 Мбайт (мегабайт) = 1024 Кбайта = 220 байт;

1 Гбайт (гигабайт) = 1024 Мбайта = 230 байт;

1 Тбайт (терабайт) = 1024 Гбайта = 240 байт;

1 Пбайт (петабайт) = 1024 Тбайта = 250 байт;

1 Эбайт (эксабайт) = 1024 Пбайта = 260 байт;

1 Збайт (зеттабайт) = 1024 Эбайта = 270 байт.

Помимо этого, существует такой подход к измерению информации, как вероятностный. При таком подходе объём занимаемой информации при условии, что число благоприятных исходов равно 1, будет вычисляться по следующей формуле:

.

Давайте разберёмся на примере.

Выполняется бросание симметричной восьмигранной фигуры. Она может с равной вероятностью упасть на любую из сторон. Какое количество информации мы получаем в зрительном сообщении от её падения на одну из граней?

Вероятность события p будет равна:

.

Т. к. вероятный благоприятный исход в данном случае может быть только один, а вот общее число исходов будет равно восьми, потому что фигура может упасть на одну из восьми сторон с одинаковой вероятностью.

Так как у нас фигура бросается один раз, то следует использовать следующую формулу:

Подставим p в формулу и получим следующее:

То есть в зрительном сообщении при бросании симметричной восьмигранной фигуры мы получим 3 бита информации.

Ещё один подход, который мы с вами рассмотрим, – алфавитный. Он применяется в компьютерных системах хранения и передачи информации. Здесь используется двоичный способ кодирования информации и важен только размер (объём) хранимого и передаваемого кода. Именно поэтому алфавитный подход также называют объёмным.

Разрядность двоичного кода i и количество возможных кодовых комбинаций или мощность алфавита N связаны следующим соотношением:

Также необходимо помнить, что 1 бит – это минимальная единица измерения информации.

А сейчас давайте разберёмся на примере. Какой объём будет занимать число F4, которое представлено в шестнадцатеричной системе счисления.

Приступим к решению.

Для начала вспомним, что:

.

Из этого следует, что все символы в этой системе счисления можно закодировать четырёхразрядными двоичными кодами от 0000 до 1111. То есть 1 символ = 4 битам. Соответственно, наше число в шестнадцатеричной системе счисления будет занимать объём:

2 ∙ 4=8 (бит).

Если же рассматривать число 71 в восьмеричной системе счисления, то:

8 = 23.

1 символ = 3 бита.

2 ∙ 3 = 6 (бит).

Объём информации, которое будет занимать число 71, равно 6 битам.

А сейчас переходим к видам информации, которые воспринимаются компьютером. К ним относятся текстовая, числовая, звуковая, графическая, мультимедийная. Все эти виды информации в компьютере кодируются.

Кодирование – это процесс представления информации в удобной для её хранения и/или передаче форме.

Начнём с рассмотрения текстовой информации в памяти компьютера. Каждая буква алфавита, цифра, знак препинания или любой другой символ, который нужен для записи текста, обозначается двоичным кодом, длина которого является фиксированной. Так, например, в системе кодирования Windows, таблица которого содержит 256 символов, каждый символ заменяется на восьмиразрядное целое положительное двоичное число, которое хранится в 1 байте памяти. Такое число является порядковым номером символа в кодовой таблице.

То есть под хранение 1 символа используется 8 бит или 1 байт. Также мы можем заметить, что два в восьмой степени равно двумстам пятидесяти шести.

Но такой кодировки достаточно лишь для одновременного кодирования не более чем 2 языков.

Для одновременной работы с большим количество языков в 1991 году был разработан новый стандарт кодировки символов – Юникод.

Юникод, или Унико́д (англ. Unicode), – это стандарт кодирования символов, позволяющий представить знаки практически всех письменных языков.

В Юникод каждый символ кодируется шестнадцатибитовым двоичным кодом. Это говорит о том, что один символ будет занимать 16 бит или 2 байта. Также следует отметить, что 216 = 65 536. И именно такое максимальное количество символов будет содержать таблица Юникод.

Таким образом можно сделать вывод, что в зависимости от разрядности используемой кодировки, информационный вес символа текста, создаваемого на компьютере, может быть равен:

•                    8 бит или 1 байт – при использовании восьмиразрядной кодировки;

•                    16 бит или 2 байта – при использовании шестнадцатиразрядной кодировки.

Если же сравнивать таблицы кодировок Windows и Юникод, то можно сделать вывод, что при кодировании текста при помощи таблицы Юникод, его информационный объём будет в 2 раза больше, чем если бы мы кодировали этот же текст при помощи таблицы Windows. Но в то же время не стоит забывать, что при помощи таблицы кодировки Windows мы можем работать одновременно не более чем с 256 различными символами.

А теперь перейдём к кодированию графической информации.

Любое графическое изображение состоит из пикселей. Пиксель – это наименьший элемент изображения, получаемый с помощью компьютерного монитора или принтера. Для того, чтобы увидеть пиксель на изображении, нужно его увеличить.

А сейчас разберёмся непосредственно с кодированием графической информации.

Начнём с чёрно-белых изображений.

Каждый пиксель может иметь одно из двух состояний: чёрный или белый цвет. Для кодирования этой информации требуется 1 бит. Так, например, для кодирования чёрно-белого изображения, размер которого составляет 4 х 8 пикселей, нам понадобиться 32 бита или же 4 байта.

4 · 8 = 32 (бита).

32 : 8 = 4 (байта).

Современные компьютеры имеют просто огромные палитры цветов. Само же количество цветов в таких палитрах зависит от того, сколько двоичных разрядов отводится для кодирования цвета пикселя.

Если размер кода цвета равен b битов, то количество цветов (размер палитры) K вычисляется по формуле:

K = 2b.

Величину b в компьютерной графике называют битовой глубиной цвета.

Глубина цвета – это величина, обозначающая то, какое количество цветов или оттенков передаёт изображение.

В настоящее время наиболее распространены значения глубины цвета 8, 16 и 24 бита.

Разберёмся на примере. Нам дано изображение размером 16 х 16 при глубине цвета в 8 бит. Найти количество цветов в палитре и объём памяти, который будет занимать изображение.

Количество цветов в палитре находится по формуле:

K = 2b.

b = 8.

K = 28 = 256.

Для нахождения же объёма памяти, который будет занимать изображение, необходимо перемножить размеры изображения и всё это умножить на глубину цвета.

16 · 16 · 8 = 2048 (бит).

2048 : 8 = 256 (байт).

Переходим к кодированию звука в компьютере.

Для того, чтобы кодировать звуковую информацию, нужно её записать.

С помощью микрофона происходит запись звука в память компьютера, то есть преобразование непрерывных звуковых сигналов в непрерывный электрический сигнал. Но компьютер может работать только с цифровой информацией, поэтому для работы со звуком в компьютере необходимо его дискетизировать. Дискретизация – это процесс обработки информации при помощи звуковой карты или аудиоадаптера, в результате которой непрерывная информация преобразуется в прерывистую, состоящую из отдельных частей, последовательность нулей и единиц.

Звуковая карта – это устройство для записи и воспроизведения звука на компьютере.

То есть задача звуковой карты – с определённой частотой производить измерения уровня звукового сигнала и результаты измерения записывать в память компьютера. Этот процесс называют

оцифровкой звука.

Количество измерений может лежать в диапазоне от 8000 (частота радиотрансляции) до 48 000 Гц (качество звучания аудио-CD).

То есть чем больше частота дискретизации, тем качественнее звук.

Промежуток времени между двумя измерениями называется периодом измерений – обозначается буквой t и измеряется в секундах.

Обратная величина называется частотой дискретизации. Она обозначается буквой 𝜈 и измеряется в герцах.

.

Таким образом на качество преобразования звука влияет несколько условий:

·        частота дискретизации, то есть сколько раз в секунду будет измерен исходный сигнал;

·        разрядность дискретизации – количество битов, выделяемых для записи каждого результата измерений.

При воспроизведении звукового файла цифровые данные преобразуются в электрический аналог звука. К звуковой карте подключаются наушники или звуковые колонки. С их помощью электрические колебания преобразуются в механические звуковые волны, которые воспринимают наши уши.

Таким образом, чем больше разрядность и частота дискретизации, тем точнее представляется звук в цифровой форме и тем больше размер файла, хранящего его.

Разберёмся на примере.

Определить качество звука (качество радиотрансляции или аудио-CD), если известно, что объём моноаудиофайла длительностью звучания в 10 секунд, равен 940 Кбайт. Разрядность аудиоадаптера равна 16 бит.

Рассмотрим решение. Для начала переведём 940 Кбайт в биты.

Мы знаем, что для того, чтобы найти размер цифрового аудиофайла, нужно время звучания или записи звука умножить на частоту дискретизации и умножить на разрядность регистра.

Отсюда мы можем найти . Для этого нужно размер аудиофайла разделить на произведение времени звучания и разрядности аудиоадаптера.

Мы получили частоту дискретизации, близкую к самой высокой. Запишем ответ: качество аудио-CD.

Нам осталось рассмотреть представление числовой информации в компьютере.

Числовая информация в компьютере может представляться в различных системах счисления. Основная же система счисления, в которой представляется информация в компьютере, – двоичная.

При выполнении каких-либо арифметических действий над числами, которые представлены в различных системах счисления, нужно перевести их в одну, например, в десятичную, а затем, после выполнения всех арифметических действий, перевести десятичное число в ту систему счисления, которая требуется по условию задания.

Для перевода числа, которое представлено в системе счисления с основанием q, в десятичную систему счисления, нужно:

1)    перейти к его развёрнутой записи;

2)    заменить буквы на соответствующие им числа в десятичной системе счисления, если таковые имеются;

3)    вычислить значение получившегося выражения.

Для того, чтобы перевести целое десятичное число в систему счисления с основанием q, нужно:

1)    последовательно выполнять деление данного числа и получаемых целых частных на основание новой системы счисления до тех пор, пока не получим частное, равное нулю;

2)    полученные остатки, которые являются цифрами числа в новой системе счисления, привести в соответствии с алфавитом новой системы счисления.

3)    составить число в новой системе счисления, записывая его справа налево, начиная с последнего полученного остатка.

Пришла пора подвести итоги урока. Сегодня мы с вами вспомнили, что такое информация, как кодируется текстовая, графическая и звуковая информация в компьютере, а также, как представляется числовая информация в компьютере.

Что такое «кодирование информации» в психологии

Определение 1

В психологии кодирование информации – это ее соотнесение с определенным набором условных знаков, то есть, с неким кодом.

Информация, которую необходимо передать оператору, представляется в качестве средств отображения в форме этого кода, который оператору нужно считать и затем декодировать. Именно из-за этого выбор оптимального кода – это главнейшая задача при проектировании информационной среды. Оптимальным считается тот код, который способен обеспечить максимальную скорость, а также надежность считывания и дальнейшей переработки информации. Для разных систем, разных задач и разной информации оптимальны свои коды.

Различение алфавитов по признакам

Кодирование основано на применении базового множества условных знаков – алфавита. Алфавиты можно различить по нескольким признакам, среди которых:

  • Модальность. Это отнесенность знаков к конкретному типу ощущений.
  • Категория. Это определенный аспект ощущения внутри модальности.
  • Длина. Это число градаций, то есть число знаков в алфавите.
  • Абстрактность. Знаки могут или иметь явный референт, или быть связанными с ним чисто условно.

Алфавиты характеризуются еще и мерностью (числом знаков), а также принципами компоновки составных знаков.

Выбор конкретной модальности

Выбор модальности обусловливается особенностями кодируемой информации, а также контекстом, в котором будет использоваться данная система. В большинстве случаев выбирается такой способ кодирования, как зрительное кодирование данных. Чтобы разгрузить зрительную систему оператора используют звуковые и/или вибротактильные сигналы. Не зрительные модальности применяют и в тех случаях, когда именно они являются наиболее естественными для отображения необходимой информации. Слуховая модальность, например, может применяться для передачи данных касательно временных трендов, так как именно слуховая система индивида обладает очень высоким временным разрешением. Слуховые и тактильные сигналы нередко используются для оповещения о нечастых, но важных событиях. В подобном случае применение зрительного представления было бы абсолютно не эффективным.

Внутри конкретной модальности есть различные способы кодирования разных признаков. К примеру, для зрительной модальности отображаемая величина способна кодироваться такими категориями, как цвет, форма, яркость, ориентация, размер. Кодирование формой и цветом зачастую предпочтительнее прочих типов кодировки. К примеру, данные виды кодирования делают возможной максимальную скорость визуального поиска и опознания каких-либо знаков. Отрицательным примером можно назвать кодирование яркостью – учитывая переменчивость условий восприятия, оператор может с достаточной надежностью различать только пару градаций данного признака (тусклый-яркий).

Замечание 1

Кодировка размером тоже далеко не всегда считается удачной – уже во время использования трех градаций размера оператор может совершать систематические ошибки во время считывания размера конкретных объектов.

Нужна помощь преподавателя?

Опиши задание — и наши эксперты тебе помогут!

Описать задание

Значимым зрительным видом кодировки можно назвать применение буквенно-цифровых алфавитов. Их можно использовать для передачи значительных объемов разнородной информации, тем самым обеспечивая достаточно высокую скорость, а также надежность считывания информации. Большое число исследований были посвящены анализу оптимальной формы знаков данного типа. Простота считывания буквенно-цифровых знаков напрямую зависит от большого числа условий – например, шрифта, толщины линий, соотношения высоты и ширины символов и так далее. Наиболее общим требованием можно назвать то, что видимый размер таких знаков должен быть не меньше, чем пятнадцать-тридцать угловых минут.

Замечание 2

Более трудные вопросы буквенно-цифрового кодирования, к примеру, вопрос оптимального кодирования сложных словесных сообщений, пока еще не имеют таких «типовых» решений.

Для слуховой модальности допустимо применить кодирование на основе категорий тембра, темпа, частоты, громкости, высоты. Кодирование качественных признаков довольно эффективно осуществляется при помощи тембра, восприятие которого является категориальным. Кодирование количественных признаков более эффективно осуществляется при помощи уже высоты и частоты. Кодирование на основании громкости редко употребляется из-за довольно очевидных практических ограничений. Осуществляя выбор конкретного вида звукового кодирования нужно учитывать звуковое окружение оператора. Это напрямую связано с разнообразными эффектами наложения звука, которые и приводят к так называемой маскировке значимых для оператора звуковых сигналов.

Степень абстрактности кода

Важнейшим критерием при выборе способа кодирования можно назвать степень абстрактности кода. Определенный код естественным образом связан с передаваемым с его помощью содержанием. Касательно абстрактного кода такая связь довольно условна и определяется исключительно конвенцией. Очевидным преимуществом определенного кода можно назвать легкость, с которой происходит декодирование информации (данные уже содержатся в знаке, который нужно только найти и опознать). Кодирование на основе определенных кодов довольно широко применяется для визуальной и звуковой модальности.

Основным преимуществом абстрактных кодов выступает их способность к передаче абстрактной информации, и при этом высокая степень однозначности их трактовки; их заметный недостаток – это необходимость их предварительного изучения, а также регулярного декодирования во время работы. Применяя как абстрактное, так и конкретное кодирование, стоит обязательно ориентироваться на естественные отношения между значениями отображаемых показателей и знаками кода. К примеру, повышение высоты звукового сигнала, как правило, ассоциируется с повышением температуры. Еще одной значимой проблемой при выборе конкретного способа кодировки можно назвать определение оптимальной длины алфавита. Ее превышение в теории повышает количество передаваемых данных. К примеру, значимая для принятия решений информация может передаваться с более высокой точностью. Но увеличение длины кода значительно усложняет распознавание знаков (различение градаций), а также замедляет обработку информации индивидом в общем. Альтернативным способом увеличения длины алфавита также является увеличение мерности кода, то есть применение знаков не одной, а уже нескольких разных категорий.

Вывод

Получается, что при выборе алфавита, а также способов кодирования данных, стоит не просто руководствоваться имеющимися рекомендациями и мнением экспертов, но также и проводить эмпирическую оценку эффективности кодирования с помощью тестирования операторов.

Автор: Анна Коврова

Преподаватель факультета психологии кафедры общей психологии. Кандидат психологических наук

Конспект урока по Информатике «Кодирование информации» 7 класс

Урок – Кодирование информации

Кодирование – преобразование входной информации в форму, воспринимаемую компьютером, т.е. двоичный код.

Декодирование – преобразование данных из двоичного кода в форму, понятную человеку.

С точки зрения технической реализации использование двоичной системы счисления для кодирования информации оказалось намного более простым, чем применение других способов. Действительно, удобно кодировать информацию в виде последовательности нулей и единиц, если представить эти значения как два возможных устойчивых состояния электронного элемента:

0 – отсутствие электрического сигнала;

1 – наличие электрического сигнала.

Эти состояния легко различать. Недостаток двоичного кодирования – длинные коды. Но в технике легче иметь дело с большим количеством простых элементов, чем с небольшим числом сложных.

Способы кодирования и декодирования информации в компьютере, в первую очередь, зависит от вида информации, а именно, что должно кодироваться: числа, текст, графические изображения или звук.

Кодирование числовой информации

Числа записываются с использованием особых знаковых систем, которые называются системами счисления.

Системы счисления мы очень подробно рассмотрели на предыдущих уроках.

Кодирование текстовой информации

При вводе в компьютер текстовой информации происходит ее двоичное кодирование, изображение символа преобразуется в его двоичный код. Пользователь нажимает на клавиатуре клавишу с символом, и в компьютер поступает определенная последовательность из электрических импульсов. Код символа хранится в оперативной памяти компьютера.

В процессе вывода символа на экран компьютера производится обратный процесс — декодирование, то есть преобразование кода символа в его изображение.

Важно, что присвоение символу конкретного кода – это вопрос соглашения, которое фиксируется кодовой таблицей.

Таблица, в которой всем символам компьютерного алфавита поставлены в соответствие порядковые номера (коды), называется таблицей кодировки.

Для разных типов ЭВМ используются различные кодировки. С распространением IBM PC международным стандартом стала таблица кодировки ASCII (American Standard Code for Information Interchange) – Американский стандартный код для информационного обмена.

В настоящее время существует 5 разных кодовых таблиц для русских букв (КОИ8, СР1251, СР866, Mac, ISO).

В настоящее время получил широкое распространение новый международный стандарт Unicode, который отводит на каждый символ два байта. С его помощью можно закодировать 65536 (216= 65536 ) различных символов.

Рассмотрим кодировку ASCII. Если в задачах ГИА и ЕГЭ не указана кодировка, то считается, что это кодировка ASCII.

Символ текста в кодировке ASCII кодируется 8-мью битами.

Стандартной в этой таблице является только первая половина, т.е. символы с номерами от 0 (00000000) до 127 (0111111). Сюда входят буква латинского алфавита, цифры, знаки препинания, скобки и некоторые другие символы.

Остальные 128 кодов используются в разных вариантах для кодирования национальных алфавитов. В русских кодировках размещаются символы русского алфавита.

.

Таблица стандартной части ASCII

(символ – десятичный код – двоичный код)

Таблица стандартной части ASCII

(символ – шестнадцатеричный код)

Информационный объем текста

Если не указано иначе, то считаем, это кодировка ASCII, т.е. 1 символ алфавита несет 1 байт информации, то надо просто сосчитать количество символов, полученное число даст информационный объем текста в байтах.

Если указана кодировка Unicode, то на каждый символ отводится два байта.

Если указана кодировка КОИ-8, то на каждый символ отводится два байта.

Кодирование текстовой информации

Представление информации в текстовой форме, сыгравшее огромную роль в развитии человеческой цивилизации, является одним из наиболее универсальных. Обработка текста с помощью компьютера стала доступной уже в 60-е годы прошлого века.

Текстовая информация состоит из набора символов, значит, она изначально дискретна. Поэтому нет необходимости проводить процессы дискретизации и квантования как в случае кодирования графической и звуковой информации.

При кодирование текстовой информации каждому символу ставится в соответствие уникальный десятичный номер в некотором алфавите, представленный в двоичном коде. Такое правило сопоставления кодов и символов алфавита называется кодировкой текста.

Стандарты кодирования.

Первый широко известный стандарт кодирования текста был принят в 1963 году и получил название ASCII (American Standard Code for Information Interchange) – американский стандартный код для обмена информацией). Таблица кодирования содержала символы латинского алфавита, цифры, набор управляющих символов и некоторые знаки препинания.

Таблица 1. Кодировка ASCII

В таблице 1 код ASCII представлен в свернутой шестнадцатеричной форме. Если развернуть в двоичную форму код превращается в семиразрядные двоичные числа (например, код 0D16 (CR) означает возврат каретки (переход к началу строки)).

В кодовой таблице ASCII соблюдается алфавитная последовательность кодировки прописных и строчных букв. Это свойство имеет важное значение для программной обработки символьной информации.

Изначально в стандарте ASCII использовался семиразрядный двоичный код. Всего можно было закодировать 27 = 128 символов. Затем, код ASCII расширили за счет добавления 8-го бита (28 = 256 символов). Первая половина восьмиразрядной кодировки совпадает с ASCII, а во второй, получившей название кодовой страницы (CP – code page), — содержатся представления символов национальных алфавитов и некоторых других знаков. Для русского языка в разных операционных системах используются свои кодовые страницы, например, Windows — CP1251, MS DOS – CP866.

Однобайтные кодировки имеют определенные неудобства, одно из которых недостаточно большое количество кодовых слов для использования одновременно нескольких языков. Для решения этих проблем в 1991 году был разработан шестнадцатиразрядный международный стандарт символьного кодирования Unicode, который позволяет закодировать 216 = 65536 символов.

Более поздние разработки стандарта Unicode за счет более сложной организации кода, при сохранении 16-ти разрядности, позволяют кодировать 1112064 символов. Таким образом, Unicode позволяет использовать в одном тексте символы алфавитов любых языков мира, в том числе и «мертвых».

Кодирование информации — Эргономика

Выбор оптимального кода выдаваемой па средства отображения информации определяется, главным образом, задачей, которую должен решать оператор.

Например, задаче обнаружения или определения места сигнала лучше соответствует цветовое кодирование, задаче опознавания — кодирование условными знаками, задаче определения количественных характеристик — цифровое кодирование, задаче пространственной ориентации — кодирование наглядными образами. Для выбора эффективной системы кодирования необходимы тщательный анализ функционально значимых признаков кодируемого сообщения, выделение ведущих и второстепенных подчиненных признаков, однозначно определяемых ведущими. Ведущие признаки должны располагаться в соответствии с теми операциями, которые необходимо производить оператору при решении задачи. Код должен быть максимально осмысленным и читаться подобно тому, как читается фраза печатного текс-. та.

Способ кодирования следует выбирать по следующим параметрам: категории кода; длине алфавита сигналов; уровню кодирования; доминирующему признаку; компоновке сигналов в группы. По всем этим параметрам имеется большое число рекомендаций в различных литературных источниках. Ниже дается их систематизированный обзор.

Выбор категории кода. Характеристики управляемых объектов могут кодироваться различными способами: условными знаками, буквами, цифрами, цветом, яркостью, размером фигур и т. п. Каждый самостоятельный способ кодирования называется категорией кода (кодирования).

Категории кода опираются на различные признаки визуального сигнала, которые и обеспечивают различную эффективность выполнения таких операций, как опознание, декодирование, счет, поиск и т. д.

У. Хитт использовал пять способов кодирования при решении пяти различных задач: опознание, определение места сигнала, счет, сравнение и проверка. Показано, что в задаче.опознания наибольшую эффективность обеспечивает категория цвета, а между категориями чисел, букв и форм нет существенных различий. В задаче поиска наиболее эффективными оказались кодовые категории цвета и числа. Цветовое и числовое кодирование являются наиболее удачными в условиях решения оператором различных задач.

При изучении скорости обнаружения на панели сигналов, отличающихся друг от друга одним из четырех признаков (формой, размером, яркостью и цветовым оттенком), было установлено, что наименьшее время поиска объектов — по цвету, а наибольшее — по яркости и размеру.

В ряде работ продемонстрированы преимущества цветового кодирования при решении задач поиска, пересчета и опознания перед кодированием цифрами и формой.

В исследованиях в качестве кодовых категорий использовались форма, размер и пространственная ориентация фигур, изучались операции идентификации, опознания и зрительного поиска. Было показано, что наибольшую эффективность выполнения всех перечисленных операций обеспечивает категория формы. При выполнении операций идентификации и зрительного поиска наименьшая скорость и точность работы отмечаются по категории размера. В задаче опознания эта категория также дает наименьшую точность работы испытуемых, однако при выполнении этой операции наибольшее время реакции обнаруживается для категории пространственной ориентации фигуры. Остановимся кратко на характеристике некоторых кодовых категорий.

Рис. 1. Пять категорий кодов, использовавшихся У. Хиттом.

Кодирование формой является в высокой степени универсальным средством представления информации на зрительных индикаторах благодаря большому алфавиту различных символов, который можно при этом использовать, а также предшествующему опыту, на который может опираться наблюдатель при интерпретации символов. Установлено, что лучше различаются и распознаются простые фигуры, состоящие из небольшого количества элементов. Фигуры, составленные из прямых линий, различаются лучше, чем фигуры, имеющие кривизну и много углов. Треугольники и прямоугольники выделяются как формы, более легкие для восприятия, чем круги и многоугольники.

При использовании формы в качестве категории кода следует иметь в виду, что хорошая различимость определенной формы не является характеристикой этой формы как таковой, а отражает то, насколько она отлична от других символов данного алфавита. Поэтому необходимо определение различимости конкретных наборов символов, предлагаемых к употреблению исходя из анализа структуры деятельности с последующей проверкой в эксперименте.

Очевидно, в одном и том же наборе не рекомендуется использовать близкие по форме фигуры, допускающие взаимное смешение. В связи с этим существенное значение приобретают определение расстояний между кодовыми знаками, а также оценка их близости, сходства и различия. Решение этих задач существенно облегчит конструирование оптимальных алфавитов знаков и определит их реальную значимость в различных условиях работы.

Кодирование размером. Использование размера в качестве категории кода предполагает соотнесение площади знака с какой-либо характеристикой реального объекта (например, удаленностью или размером радиолокационной цели). Результаты экспериментального исследования показали меньшую точность опознания сигналов по категории размера по сравнению с точностью опознания по категории формы. Очевидно, это объясняется отсутствием стабильных эталонов для признака размера фигуры, динамичностью этих эталонов, их постепенным разрушением в ходе эксперимента. Анализ ошибочных ответов испытуемых в эксперименте показал, что ошибки допускаются исключительно при смешении «соседних» размеров: первого и второго, второго и третьего и т. д. Была обнаружена тенденция к переоценке наименьшего размера и к недооценке наибольшего.

При использовании категории размера рекомендуется равномерно располагать значения размеров по логарифмическому закону, так как он обеспечивает большую точность дифференцирования размеров по сравнению с линейным законом.

Для обозначения скорости движения цели можно использовать кодирование длиной линии. При этом также рекомендуется промежуточные значения этого признака задавать по логарифмическому закону. При использовании более пяти градаций признака число ошибок опознания резко возрастает. Для повышения точности глазомерной оценки длины линии целесообразно вводить дробление линии и группировку ее элементов.

Кодирование пространственной ориентацией. Пространственная ориентация фигуры также может использоваться в качестве категории кода. При этом для асимметричных фигур изменение пространственной ориентации достигается путем поворота фигуры в поле зрения наблюдателя. Для симметричных фигур в качестве признака пространственной ориентации можно использовать утолщение одной из линий контура.

Экспериментальные данные показали, что точность идентификации и опознания по признаку пространственной ориентации, по существу, не отличается от точности выполнения тех же операций по признаку формы. Очевидно, признак пространственной ориентации является одним из наиболее простых и первичных генетически. Однако вербальное обозначение этого признака вызывает известные трудности, что приводит к значительному возрастанию времени реакции опознания. Максимальную эффективность опознания по признаку пространственной ориентации обеспечивают фигуры, не симметричные относительно традиционных осей: вертикальной и горизонтальной, — такие как треугольник и пятиугольник.

Для кодирования направления движения цели можно использовать признак ориентации линии. Установлено, что при определении курса цели с помощью ориентации линии 50% ответов дается с ошибкой менее 6%, а 95% — с ошибкой менее 15% (при длине линии 2,5 мм и расстоянии наблюдения 35,5 см). Точность оценки можно существенно повысить, используя специальное приспособление в виде накладываемого на экран индикатора прозрачного вращающегося диска, разграфленного параллельными линиями. Вращая диск, оператор устанавливает его таким образом, чтобы оцениваемый вектор оказался параллельным этим линиям, а затем считывает показания по делениям, нанесенным по окружности экрана.

Буквенно-ц ифровое кодирование. Выбор формы является важным условием различимости букв и цифр. Экспериментальные данные показывают, что иногда даже мало заметные варианты формы букв и цифр сильно влияют на их читаемость. В заново разрабатываемых шрифтах стремятся прежде всего избежать смешения сходных знаков (например, в латинском алфавите О и Q, С и G и т. п.) и выделить характерные признаки, отличающие знаки друг от друга. Арабский цифровой алфавит состоит из знаков, многие из которых не удовлетворяют требованию хорошей различимости. Такие цифры, как 7 и 9, 5 и 6, 3 и 5, отличаются друг от друга только одним или двумя признаками. Как показали многочисленные исследования, в условиях дефицита времени при опознании этих цифр часто допускаются ошибки. Установлено, что по точности и скорости опознания на первом месте стоят цифры, образованные прямыми линиями: 1, 7, 4 и т. д. В соответствии с особенностями восприятия цифр были предложены различные конфигурации шрифтов.

Для обеспечения хорошей читаемости цифр необходимо выдерживать оптимальные соотношения основных параметров знака: высоты, ширины, толщины линии. Ширина знака должна составлять 3/5 его высоты (за исключением цифры «1», ширина которой должна быть равна толщине линии, и букв «М», «Ж», «III», ширина которых должна составлять 4/5 высоты). Толщина линии — от 1/6 до 1/8 высоты знака.

Цветовое кодирование. Человек может точно идентифицировать не более 10—12 цветовых тонов, при кодировании — не более 8 тонов, что ограничивает возможную длину алфавита при цветовой кодировании. С наибольшей точностью опознаются фиолетовый, голубой, зеленый и красный цвета, которые и могут быть рекомендованы для цветового кодирования. Общее число точно опознаваемых цветов можно увеличить в несколько раз, если сигналы изменяются не только по цветовому тону, но также по светлоте и насыщенности. Преимущество цветового кодирования состоит в том, что при его использовании можно оставить цифровые индексы в резерве для обозначения количественных характеристик кодируемых объектов. Недостатком цветового кодирования является плохое цветоразличение у некоторых операторов.

При использовании цветового кодирования следует учитывать, что видимый цвет объектов зависит от их освещения. Поэтому цветовой код применяется только при освещении белым светом. Точное вое-восприятие цвета обеспечивается при яркости 170 кд. Восприятие цвета объектов зависит также от их размеров, расстояния от наблюдателя, положения в поле зрения. Хроматические объекты на далеком расстоянии, а также находящиеся на периферии поля зрения, воспринимаются как ахроматические. При восприятии объектов под малым углом зрения (10—20°) наблюдается стягивание цветов к двум точкам: теплых — к красному, холодных — к голубому. С увеличением площади объекта увеличивается И точность различения цвета.

Оптимальным цветом для высвечивания знаков является участок спектра с длинами волн от 500 до 570 им, а именно желто-зеленые лучи. Эти цвета характеризуются малой насыщенностью, т. е. небольшим отличием от белого и максимальной видностью. Кроме того, они меньше других утомляют глаз

Рис. 2. Зависимость времени поиска от количества объектов в поле зрения

Исследование декодирования визуальных сигналов на цветовом индикаторе показало, что цветность знаков влияет на время их опознания и декодирования. В эксперименте использовались три цвета знаков: синий, зеленый и красный. Наименьший латентный период реакции испытуемых был получен при декодировании знаков синего цвета, наибольший — зеленого. При декодировании состояния объекта по цвету предъявленного знака отмечались ошибки, полученные в результате перепутывания зеленого и синего цветов. Иные данные получены при исследовании зрительного поиска. Оказалось, что наибольшая скорость работы наблюдается при красном цвете тест-объекта, наименьшая при синем.

Кодирование яркостью. При хороших условиях восприятия для кодирования можно использовать не более четырех уровней яркости, при этом оптимальное отношение градаций яркости 1:5. На практике обычно используется два уровня. Эта категория кодирования не может считаться удачной, так как пятна различной яркости отвлекают и утомляют оператора.

Кодирование частотой мелькания. При использовании частоты мелькания объекта в качестве категории кода не рекомендуется применять более четырех градаций этого признака. Экспериментально установлено, что при частоте мельканий, равной 1,5 Гц, точность оценки количества вспышек очень высока. С увеличением частоты точность оценки падает. Пороговой величиной для непосредственной визуальной оценки частоты мельканий является б—8 Гц. Поскольку мелькания быстро приводят к зрительному утомлению, следует ограничивать количество мерцающих объектов в поле зрения оператора (не более двух знаков одновременно).

Определение длины алфавита. Высокая дифференциальная чувствительность анализаторов человека по отношению к отдельные свойствам стимула, казалось бы, позволяет использовать для передачи информации достаточно длинный алфавит из одномерных стимулов. Однако по экспериментальным данным, при использовании таких алфавитов скорость и надежность приема информации человеком невелики. Одним из наиболее важных ограничителей пропускной способности анализаторов человека является фактор различимости. Оптимальные условия различения создаются лишь в том случае, если различие между парой одномерных стимулов превышает пороговую величину в несколько раз. По Дж. Миллеру, число абсолютно различимых градаций одномерного сигнала колеблется в пределах 4— 16 в зависимости от качества используемого признака.

Оптимальная длина алфавита должна быть определена экспериментально для каждой кодовой категории. При этом следует учитывать не только фай’ор различимости, но и объем оперативной памяти человека.

В литературе имеются некоторые данные относительно допустимой длины алфавита для различных категорий кодирования: форма — 15 символов, размер — 5, цифры и буквы — неограниченная, цвет —
II, яркость — 4, частота мельканий — 4.

Выбор уровня кодирования. Длина алфавита может быть увеличена в несколько раз использованием многомерных стимулов. При этом все параметры объекта кодируются в одном знаке объединением нескольких признаков. Для многомерных стимулов допустимая длина алфавита возрастает до 150. С помощью многомерных сигналов человеку можно передавать одновременно значительно больше информации, чем с помощью одномерных стимулов, поскольку информация на сигнал увеличивается пропорционально логарифму числа его измерений.

Определение доминирующего признака. При оценке систем кодирования следует учитывать преимущества той или иной категории кода при решении различных задач. Кодовая категория, обеспечивающая оптимальную различимость и тем самым максимальную эффективность решения задач оператором, должна использоваться в качестве доминирующего признака, т. е. для кодирования наиболее значимой характеристики объекта. Например, в системах со знаковой индикацией таким доминирующим признаком должен быть контур знака.

При оценке доминирующего признака при кодировании формой важное значение имеет вопрос о мере абстрактности знаков. Экспериментальные данные показали, что частичное воспроизведение в опознавательных признаках сигнала признаков кодируемого объекта дает высокую точность решения задачи декодирования. Вместе с тем следует соблюдать определенную меру «картинности». Экспериментальная оценка дорожных знаков показала, что наиболее неудачными с точки зрения различимости и опознаваемости оказались знаки, в которых полностью изображены объекты; лучшие показатели получены для тех знаков, в которых сохранилась определенная наглядность, но в обобщенной форме символа. Очевидно, мера наглядности должна определяться требованием хорошей различимости знака.

Весьма важным является вопрос о совместимости системы кодирования с жизненным и профессиональным опытом оператора, со сформировавшимися у него ассоциациями. На этом основании буквы используются при передаче информации о названии объекта, цифры — о количественных характеристиках объекта, цвет — о значимости. Геометрические фигуры — знаки могут быть использованы для кодирования информации в тех случаях, когда оператору необходима наглядная картина для быстрой переработки поступившей информации.

Компоновка кодового знака. Кодовые знаки должны быть хорошо различимы. При построении многомерных кодов следует учитывать то обстоятельство, что в затрудненных условиях восприятия одни признаки кодового знака могут маскировать другие. Требование хорошей различимости Особенно важно учитывать при построении или оценке систем кодирования, составленных из условных знаков, имеющих контур и некоторое количество внутренних и наружных деталей для кодирования дополнительных признаков объекта.

Результаты экспериментального исследования по оценке системы знаков — геометрических фигур, имеющих внутренние и наружные детали, показали, что наилучшими с точки зрения различимости и опознаваемости являются знаки средней сложности, у которых есть одна или две хорошо различимые детали. Знаки простые, имеющие только контур, опознавались с меньшей точностью, поскольку для кодирования дополнительных характеристик объекта у них не хватало признаков формы. Сложные знаки, имеющие несколько дополнительных признаков, иногда дублирующих друг друга, дали большое количество ошибок восприятия из-за плохой различимости внутренних или наружных деталей.

Подводя итог сказанному, можно сформулировать некоторые требования к построению кодовых знаков, которые целесообразно учитывать при проектировании информационных моделей.
1. При построении системы знаков необходима четкая и последовательная классификация символов внутри алфавита. Это облегчает формирование схемы, «обобщенного портрета» класса знаков и выделение признаков, отличающих знаки внутри алфавита.
2. Основной классификационный признак объекта должен кодироваться контуром знака, иметь достаточный угловой размер и представлять собой замкнутую фигуру.
3. Знак должен включать не только основные, но и дополнительные, специфические признаки.
4. Дополнительные детали не должны пересекать или искажать основной символ.
5. Не следует перегружать знак внутренними или наружными деталями. Использование букв внутри или снаружи контура также затрудняет различение знака.
6. При компоновке знака следует отдавать предпочтение внутренним деталям, поскольку наружные затрудняют различение контура знака.
7. Предпочтительно использование симметричных символов, поскольку они легче усваиваются и более прочно сохраняются как в оперативной, так и в долговременной памяти.
8. В качестве опознавательных признаков символов в пределах одного алфавита нельзя использовать следующие:
а) число элементов в знаке или его протяженность, так как в условиях дефицита времени определение числа элементов вызывает трудности;
б) отличие знаков по признаку позитив—негатив. В условиях работы с проходящим светом возможно смешение таких знаков в результате возникновения отрицательного послеобраза;
в) отличие знаков по признаку прямое — зеркальное отражение. Трансформация зрительного образа типа пространственных поворотов вокруг вертикальной или горизонтальной оси может привести к смешению зеркальных сигналов.
9. Различимость знаков должна оцениваться также по их угловым размерам, яркости и контрасту с фоном.
10. Оптимальное число концептуально различимых признаков, обеспечивающих надежную дифференцировку одного сигнала от другого, равно 2—4.


Реклама:

Читать далее:
Синтез информационной модели

Статьи по теме:

что это, как работает? Понятие, виды информации

Содержание:

  1. Текстовое кодирование информации: особенности и способы
  2. Растровое кодирование информации
  3. Кодирование графической информации
  4. Кодирование числовой информации
  5. Кодирование звуковой информации
  6. Способы кодирования видеозаписи

Для того, чтобы перейти к изучению видов кодирования и обработки информации, рассмотрим сначала базовые, наиболее важных для понимания данной темы, определения.

Понятие 1

Изменение информации, дающее возможность представить информацию в другой, наиболее удобной для понимания человеком или электронным устройством форме, называется кодированием.

Понятие 2

Алгоритм, которым необходимо руководствоваться при отображении одного набора знаков в другом, называют кодом.

Понятие 3

Двоичным кодом называют такое отображение одного набора знаков в другом, которое производится при помощи двух символов — 0 и 1.

Понятие 4

Под длиной кода понимается то количество знаков, которое требуется для отображения кодируемой информации.

Понятие 5

Бит представляет собой отображение двоичной информации, которым можно закодировать либо 0, либо 1. У двух битов значение умножается на два (четыре значения), у трёх – ещё на два (восемь значений) и так далее. Таким образом, значение битов растёт в геометрической прогрессии.

Варианты кодирования информации могут выглядеть таким образом:

Информация может быть представлена в различной форме – в виде текста, в виде фотографии, в виде таблицы, в виде звука и так далее. Но для того, чтобы эта информация стала доступна машине, её необходимо закодировать. Далее мы более подробно рассмотрим каждый вид кодирования информации.

Текстовое кодирование информации: особенности и способы

Текстовая информация представляет собой совокупность неких символов. Это могут быть буквы, цифры, знаки, скобки, кавычки и всё что угодно.
Такая информация преобразуется в двоичный код и хранится в памяти компьютера именно в таком виде. Это становится возможным благодаря коду символа и системе кодировки. Первая представляет собой некоторое положительное число, записанное в память ЭВМ, а второе – совокупность таких чисел. Чаще всего в ПК используется система кодировки с названием «American Standard Code for Informational Interchange», в котором отражается и сама суть операций.

Примечание 1

С развитием программного обеспечения, создавались всё новые и новые стандарты кодировки текста, но от старого стандарта было сложно уйти. Поэтому программа реализовывалась 50/50: половина соответствовала старым стандартам, а половина – новым. Благодаря тому, что диапазон был расширен, на каждый из стандартов приходилось по 128 символов.

Примечание 2

В России наиболее распространёнными являются восьмибитные кодировки. Такие как KOI8 или UTF8.

Растровое кодирование информации

Известно, что для передачи фотографии, её необходимо сохранить в двоичном коде. Чтобы произвести эту операцию, фотографию делят на множество точек – пиксели. А затем эти пиксели записываются на запоминающее устройство, но только после прохождения процесса разбивки и кодировки цвета каждого пикселя.

Пример 1

Посчитать количество пикселей всего изображения очень просто: необходимо умножить количество пикселей по горизонтали на количество пикселей по вертикали. Например, если размер изображения составляет 2657х1973, то количество пикселей составит 5242261.

Пример 2

Возникает вопрос: а что или кто разбивает изображение на пиксели? Ответ: любое современное устройство – будь то камера телефона, фотоаппарат, вебкамера или даже сканер. У каждого устройства с наличием камеры указано количество мегапикселей. Так, если у камеры 20 мегапикселей, то это значит, что камера разбивает изображение на 20 миллионов мегапикселей в двоичном коде. Поэтому многие стремятся приобрести устройства с большим числом мегапикселей, а производители стремятся увеличивать этот показатель всё больше и больше. Чем больше количество мегапикселей, тем лучше и реалистичнее устройство передаёт картинку. Так, на некоторых устройствах вместо фотографий получается лишь силуэт и дело тут не в том, что камера устройства плоха, а в том, что у неё мало мегапикселей.

При всём при том, лишь большое количество мегапикселей не может гарантировать создание качественного, реалистичного снимка. Это связано с тем, что бинарный код и степень кодирования фотографий зависят не только от количества пикселей, но и от цветового разнообразия.
Самым популярным способом записи цвета является алгоритм RGB, название которого уже содержит в себе ответ – это аббревиатура от слов red, green, blue. Любой цвет или оттенок можно получить лишь используя эти цвета в необходимом количестве. Это и есть базовый концепт алгоритма. Пиксели кодируются в двоичном коде с указанием количества того или иного оттенка, формирующего изображение. Таким образом, насыщенность изображения зависит от количества битов, которые используются для кодирования пикселя: чем их больше, тем больше количество вариантов для микса цветов.

Понятие 6

Глубина цвета – это все те цвета отдельных пикселей, которые составляют единое изображение.

Кодирование графической информации

Если в предыдущем пункте мы рассматривали растровую графику (изображение состоит из множества пикселей и тд.), то сейчас настало время поговорить о векторной графике.

Если растровую графику может создавать большое количество устройств, то векторную графику создаёт только компьютер. Это происходит благодаря формированию различных примитивных деталей – окружностей, линий или чего-то другого, выраженного в графическом эквиваленте. Иными словами, чертёжная графика и векторная – это два названия одного и того же процесса.

Такая графика является необходимой для графического оформления чего-либо и достаточно популярна среди дизайнеров, работников редакций и прочих специалистов, которые каждый день имеют дело с рисованием и оформлением чего-либо. Как же записывается такое изображение? Оно записывается в двоичном коде, но не с помощью пикселей, а с помощью примитивов. Также там указываются размеры примитивов, расположение на фоне, цвет заливки и другие детали.

Пример 3

Для того, чтобы записать изображение любой геометрической фигуры, необходимо в двоичный код закодировать информацию о типе объекта, его толщине, длине, цвете, расположении его на фоне и так далее. Это намного проще, чем кодировать растровое изображение, так как в этом случае пришлось бы указывать параметры каждого пикселя. Также большое преимущество векторной графики – изображения не занимают много памяти.

Из недостатков векторной графики можно отметить нереалистичность. Поэтому все устройства работают на растровой графике и сталкиваться с векторной графикой обывателю приходится нечасто.

Кодирование числовой информации

Числовая информация тоже подлежит кодированию. Прежде чем переходить к кодированию, важно определить с какой целью это делается. Так, иногда числовая информация применяется для вычислений, а иногда – для вывода. Все данные, как и рассматривалось ранее, кодируются в двоичной системе в битах, но есть и другие способы кодировки. Однако кодирование информации с помощью 0 и 1 можно назвать самым простым и доступным. Например, за 0 можно принять отсутствие сигнала, а за 1- его наличие. Двоичный код не позволяет делать длинные комбинации и это его существенный недостаток, но часто даже это не становится большой преградой в технологическом процессе.

Примечание 3

Чтобы закодировать действительное число, необходимо использовать 80-разрядное кодирование, а после – переводить число в стандартный вид. Чтобы закодировать целое число, нужно просто перевести число из одной системы счисления в другую.

Кодирование звуковой информации

Понятие 7

Звуки, которые доступны для слуха человека, имеют два показателя – амплитуду и частоту. Амплитуда (громкость звука) – это то, насколько при колебаниях отклоняется состояние воздуха А частота (высота звука) – это количество колебаний за единицу времени.

Пример 4

Рассмотрим на конкретных примерах показатели амплитуды и частоты. Фейерверк – это низкая частота и большая амплитуда, а писк комара – это высокая частота и маленькая амплитуда.

Как же происходят эти процессы непосредственно на устройстве? Рассмотрим на примере компьютера.
Микрофон улавливает звуки и передаёт показатели колебаний, переводя их в электрические колебания. Далее за дело принимается звуковая карта, которая преобразует эти колебания в двоичный код. Двоичный код фиксируется на запоминающем устройстве. Аудиокарта при этом разделяет звук на мелкие детали и кодирует интенсивность звука – это явление получило название дискретизации: в зависимости от её высоты находится точность геометрии звуковой волны и качество записи, как следствие. Чтобы проще было это понять, можно вспомнить способы кодирования графической информации.

Что происходит при декодировании (воспроизведении звука?). Код превращается в электрические колебания, которые выводящие устройства преобразуют в колебания воздуха.

Понятие 8

Несмотря на такое детальное рассмотрение, у многих может возникнуть вопрос: от чего же зависит качество звуков? Если коротко, то от результат дискретизации. Если подробно, то играет роль количество битов и дискретизация – вместе они формируют такой показатель как глубина звука. Это происходит за счёт возможности кодирования каждого участка.

Способы кодирования видеозаписи

Видеозаписи являются хорошим примером компиляции звуковой и графической информации.
Звук кодируется стандартным способом, по тем же алгоритмам, которые были рассмотрены ранее.
Что касается изображения, то технология записи изображений чем-то напоминает растровую графику, но, в целом, есть и довольно занятные особенности. Например: одна секунда видео = 25+- быстро сменяющихся кадров. Нашему глазу сложно это почувствовать, так как кадры не сильно отличаются друг от друга. Поэтому чаще всего при кодировке видеофайлов, записывается только базовый кадр, а второй и последующие формируются с использованием отличий одного кадра от другого.

Тема: «Кодирование информации в компьютере».


Тема: «Кодирование информации в компьютере».

Цели урока:

— помочь учащимся усвоить понятие информации и способы кодирования информации в компьютере, помочь учащимся усвоить понятие системы отсчета, познакомить с двоичной, восьмеричной и шестнадцатеричной системами отсчета, дать первые основные понятия, необходимые для начала работы на компьютере, дать понятия мышки, указателя, кнопки, главного меню, первичное понятие окна, научить пользоваться мышью и визуальными средствами управления, освоить три основных действия мышкой – щелчок, двойной щелчок, взять и растянуть.
— воспитание информационной культуры учащихся, внимательности, аккуратности, дисциплинированности, усидчивости.
— развитие мышления, познавательных интересов, навыков работы с мышью и клавиатурой, самоконтроля, умения конспектировать.

Оборудование:
доска, компьютер, компьютерная презентация.

План урока:
I. Орг. момент. (1 мин)
II. Актуализация знаний. (1 мин)
III. Теоретическая часть. (20 мин)
IV. Практическая часть. (9 мин)
V. Д/з (2 мин)
VI. Вопросы учеников. (5 мин)
VII. Итог урока. (2 мин)

Ход урока:
I. Орг. момент.

Приветствие, проверка присутствующих. Объяснение хода урока.

II. Актуализация знаний.
Вся информация, которою обработает компьютер, должна быть представлена двоичным кодом с помощью двух цифр – 0 и 1.
Эти два символа 0 и 1 принято называть битами (от англ. binary digit – двоичный знак).

III. Теоретическая часть.
С помощью двух цифр 0 и 1 можно закодировать любое сообщение. Это явилось причиной того, что в компьютере обязательно должно быть организованно два важных процесса:
Кодирование – преобразование входной информации в форму, воспринимаемую компьютером, т.е. двоичный код.
Декодирование – преобразование данных из двоичного кода в форму, понятную человеку.

С точки зрения технической реализации использование двоичной системы счисления для кодирования информации оказалось намного более простым, чем применение других способов. Действительно, удобно кодировать информацию в виде проследовательность нулей и единиц, если представить эти значения как два возможных устойчивых состояния электронного элемента:
0 – отсутствие электрического сигнала;
1 – наличие электрического сигнала.

Эти состояния легко различать. Недостаток двоичного кодирования – длинные коды. Но в технике легче иметь дело с большим количеством простых элементов, чем с небольшим числом сложных.
Вам приходится постоянно сталкиваться с устройством, которое мо

ет находится только в двух устойчивых состояниях: включено/выключено. Конечно же, это хорошо знакомый всем выключатель. А вот придумать выключатель, который мог бы устойчиво и быстро переключаться в любое из 10 состояний, оказалось невозможным. В результате после ряда неудачных попыток разработчики пришли к выводу о невозможности построения компьютера на основе десятичной системы счисления. И в основу представления чисел в компьютере была положена именно двоичная система счисления.

Способы кодирования и декодирования информации в компьютере, в первую очередь, зависит от вида информации, а именно, что должно кодироваться: числа, текст, графические изображения или звук.

Рассмотрим основные способы двоичного кодирования информации в компьютере.

Представление чисел
Для записи информации о количестве объектов используются числа. Числа записываются с использование особых знаковых систем, которые называют системами счисления.
Система счисления – совокупность приемов и правил записи чисел с помощью определенного набора символов.
Все системы счисления делятся на две большие группы: ПОЗИЦИОННЫЕ и НЕПОЗИЦИОННЫЕ.
Позиционные — количественное значение каждой цифры числа зависит от того, в каком месте (позиции или разряде) записана та или иная цифра.
Непозиционные — количественное значение цифры числа не зависит от того, в каком месте (позиции или разряде) записана та или иная цифра.

Самой распространенной из непозиционных систем счисления является римская. В качестве цифр используются: I(1), V(5), X(10), L(50), C(100), D(500), M(1000).
Величина числа определяется как сумма или разность цифр в числе.
MCMXCVIII = 1000+(1000-100)+(100-10)+5+1+1+1 = 1998
Первая позиционная система счисления была придумана еще в Древнем Вавилоне, причем вавилонская нумерация была шестидесятеричная, т.е. в ней использовалось шестьдесят цифр!
В XIX веке довольно широкое распространение получила двенадцатеричная система счисления.
В настоящее время наиболее распространены десятичная, двоичная, восьмеричная и шестнадцатеричная системы счисления.
Количество различных символов, используемых для изображения числа в позиционных системах счисления, называется основанием системы счисления.

Основание

Алфавит цифр

Десятичная

10

0, 1, 2, 3, 4, 5, 6, 7, 8, 9

Двоичная

2

0, 1

Восьмеричная

8

0, 1, 2, 3, 4, 5, 6, 7

Шестнадцатеричная

16

0, 1, 2, 3, 4, 5, 6, 7, 8, 9, A, B, C, D, E, F


Соответствие систем счисления:

0

1

 2

3

4

5

6

 7

Двоичная

0

1

 10

 11

100

101

110

111

Восьмеричная

0

1

 2

3

4

5

6

 7

Шестнадцатеричная

0

1

2

3

4

 5

6

7

 

8

9

10

11

12

13

14

15

Двоичная

1000

1001

 1010

1011

 1100

1101

1110

1111

Восьмеричная

10

11

 12

13

14

15

16

17

Шестнадцатеричная

8

 9

A

 B

C

D

E

 F

 

Двоичное кодирование текстовой информации

Начиная с 60-х годов, компьютеры все больше стали использовать для обработки текстовой информации и в настоящее время большая часть ПК в мире занято обработкой именно текстовой информации.

Традиционно для кодирования одного символа используется количество информации = 1 байту (1 байт = 8 битов).
Для кодирования одного символа требуется один байт информации.

Учитывая, что каждый бит принимает значение 1 или 0, получаем, что с помощью 1 байта можно закодировать 256 различных символов. (28=256)

Кодирование заключается в том, что каждому символу ставиться в соответствие уникальный двоичный код от 00000000 до 11111111 (или десятичный код от 0 до 255).

Важно, что присвоение символу конкретного кода – это вопрос соглашения, которое фиксируется кодовой таблицей.

Таблица, в которой всем символам компьютерного алфавита поставлены в соответствие порядковые номера (коды), называется таблицей кодировки.

Для разных типов ЭВМ используются различные кодировки. С распространением IBM PC международным стандартом стала таблица кодировки ASCII (American Standard Code for Information Interchange) – Американский стандартный код для информационного обмена.
Стандартной в этой таблице является только первая половина, т.е. символы с номерами от 0 (00000000) до 127 (0111111). Сюда входят буква латинского алфавита, цифры, знаки препинания, скобки и некоторые другие символы.

Остальные 128 кодов используются в разных вариантах. В русских кодировках размещаются символы русского алфавита.
В настоящее время существует 5 разных кодовых таблиц для русских букв (КОИ8, СР1251, СР866, Mac, ISO).

В настоящее время получил широкое распространение новый международный стандарт Unicode, который отводит на каждый символ два байта. С его помощью можно закодировать 65536 (216= 65536 ) различных символов.

Таблица стандартной части ASCII

Таблица расширенного кода ASCII

Обратите внимание!
Цифры кодируются по стандарту ASCII в двух случаях – при вводе-выводе и когда они встречаются в тексте. Если цифры участвуют в вычислениях, то осуществляется их преобразование в другой двоичных код.
Возьмем число 57.

При использовании в тексте каждая цифра будет представлена своим кодом в соответствии с таблицей ASCII. В двоичной системе это – 00110101 00110111.

При использовании в вычислениях код этого числа будет получен по правилам перевода в двоичную систему и получим – 00111001.

Кодирование графической информации

Создавать и хранить графические объекты в компьютере можно двумя способами – как растровое или как векторное изображение. Для каждого типа изображений используется свой способ кодирования.

Кодирование растровых изображений


Растровое изображение представляет собой совокупность точек (пикселей) разных цветов.
Для черно-белого изображения информационный объем одной точки равен одному биту (либо черная, либо белая – либо 1, либо 0).
Для четырех цветного – 2 бита.
Для 8 цветов необходимо – 3 бита.
Для 16 цветов – 4 бита.
Для 256 цветов – 8 бит (1 байт).

Цветное изображение на экране монитора формируется за счет смешивания трех базовых цветов: красного, зеленого, синего. Т.н. модель RGB.
Для получения богатой палитры базовым цветам могут быть заданы различные интенсивности.
4 294 967 296 цветов (True Color) – 32 бита (4 байта).

Кодирование векторных изображений.

Векторное изображение представляет собой совокупность графических примитивов (точка, отрезок, эллипс…). Каждый примитив описывается математическими формулами. Кодирование зависти от прикладной среды.

Двоичное кодирование звука

Звук – волна с непрерывно изменяющейся амплитудой и частотой. Чем больше амплитуда, тем он громче для человека, чем больше частота, тем выше тон.
В процессе кодирования звукового сигнала производится его временная дискретизация – непрерывная волна разбивается на отдельные маленькие временные участки.
Качество двоичного кодирования звука определяется глубиной кодирования и частотой дискретизации.

Вопросы и задания для закрепления
· Закодируйте с помощью ASCII-кода свою фамилию, имя, номер класса.
· В чем достоинство и недостаток кодирования, применяемого в компьютерах?
· Чем отличаются растровые и векторные изображения?
· В чем суть кодирования графической информации?
· На листе в клеточку нарисуйте рисунок. Закодируйте ваш рисунок двоичным кодом.
· Зачись количества предметов в разных системах счисления. см. презентацию к уроку.

III. Практическая часть.

На этом занятии мы поработаем с программами «Internet Explorer» и «Калькулятор».

Запустите программу Internet Explorer – это программа для просмотра web-страниц, По-умолчанию загрузится страница с классного сервера (адрес которого http://server). Теперь давайте попробуем изменить кодировку для отображения web-страницы и посмотрим что будет. Для изменения кодировки выберете команду «Вид→Кодировка→(какая-то кодировка)». Вы заметили как важно использовать правильную кодировку для отображения web-страниц.

Чтобы включить автовыбор кодировки:В меню Вид Internet Explorer выберите пункт Кодировка, а затем убедитесь, что установлена галочка Автовыбор. Если галочка отсутствует, установите ее.

Если функция автовыбора не может правильно распознать языковую кодировку, можно установить нужную кодировку вручную.

Теперь запустите программу Калькулятор. Данная программа предназначена для выполнения тех же действий, что и обычный калькулятор. Она выполняет основные арифметические действия, такие, как сложение и вычитание, а также функции инженерного калькулятора, например нахождение логарифмов и факториалов.

Чтобы преобразовать число в другую систему счисления
1. В меню Вид выберите команду Инженерный.
2. Введите число для преобразования.
3. Выберите систему счисления, в которую его требуется преобразовать.
4. Выберите необходимую разрядность результата.
Теперь используя эту программу преобразуйте числа из одной системы счисления в другую.
310=?2
1010=?2
22610=?2
100012 = ?10
248=?16
FF16==?2= ?8 = ?10

IV. Д/з
Знать, что такое информация, способы кодирования информации, системы счисления. Составить таблицу для преобразования чисел из десятичную в троичную и четверичную системы счисления (от 010 до 1510).

V. Вопросы учеников.
Ответы на вопросы учащихся.

VI. Итог урока.

Подведение итога урока. Выставление оценок.
На уроке мы узнали, что же такое информация, обсудили свойства и формы представления информации, познакомились с двоичным кодом и узнали в каких единицах измеряется информация.
Так же мы научились устанавливать кодировку в программе Internet Explorer для корректного отображения web-страниц, а с помощью программы Калькулятор преобразовывать числа из одной системы счисления в другую.

 

 

 

 

 

 

 

Теория информации и нейронное кодирование

  • 1

    Бриттен, К. Х., Шадлен, М. Н., Ньюсом, В. Т. и Мовшон, Дж. А. Анализ визуального движения: сравнение нейронных и психофизических характеристик. J. Neurosci. 12 , 4745–4746 (1992).

    CAS Статья Google ученый

  • 2

    Габбиани Ф., Мецнер В., Вессель Р. и Кох К. От кодирования стимулов до выделения признаков у слабоэлектрических рыб. Nature 384 , 564–567 (1996).

    CAS Статья Google ученый

  • 3

    Паркер, А. Дж. И Ньюсом, У. Т. Смысл и отдельный нейрон: исследование физиологии восприятия. Annu. Ред. Neurosci . 21 , 227–277 (1998).

    CAS Статья Google ученый

  • 4

    Шеннон, К. Э. Математическая теория коммуникации. Bell Syst. Tech. J. 27 , 379–423 (1948).

    Артикул Google ученый

  • 5

    Маккей, Д. Н. и МакКаллох, В. С. Ограничение информационной емкости нейронной связи. Бык. Математика. Биофиз. 14 , 127–135 (1952).

    Артикул Google ученый

  • 6

    Стейн, Р. Б., Френч, А. С. и Холден, А. В. Частотная характеристика, когерентность и информационная емкость двух нейрональных моделей. Biophys. J. 12 , 295–322 (1972).

    CAS Статья Google ученый

  • 7

    Экхорн, Р. и Попел, Б. Строгое и расширенное применение теории информации к афферентной зрительной системе кошки. I. Основные понятия. Biol. Киберн. 16 , 191–200 (1974).

    CAS Google ученый

  • 8

    Экхорн, Р.И Попель Б. Строгое и расширенное применение теории информации к афферентной зрительной системе кошки. II. Результаты экспериментов. Biol. Киберн. 17 , 7–17 (1975).

    Артикул Google ученый

  • 9

    де Рюйтер ван Стивенинк, Р. и Биалек, У. Производительность чувствительного к движению нейрона в зрительной системе мясной мухи в реальном времени: кодирование и передача информации в коротких последовательностях спайков. Proc.R. Soc. Лондон. B Biol. Sci. 234 , 379–414 (1988).

    Артикул Google ученый

  • 10

    Биалек, В., Рике, Ф., де Руйтер ван Стивенинк, Р. Р. и Варланд, Д. Чтение нейронного кода. Наука 252 , 1854–1857 (1991).

    CAS Статья Google ученый

  • 11

    Theunissen, F., Roddey, J.C., Stufflebeam, S., Clague, H.И Миллер, Дж. П. Теоретико-информационный анализ динамического кодирования четырьмя идентифицированными интернейронами в церкальной системе сверчка. J. Neurophysiol. 75 , 1345–1364 (1996).

    CAS Статья Google ученый

  • 12

    Wessel, R., Koch, C. & Gabbiani, F. Кодирование изменяющейся во времени амплитудной модуляции электрического поля у электрической рыбы волнового типа. J. Neurophysiol. 75 , 2280–2293 (1996).

    CAS Статья Google ученый

  • 13

    Хааг, Дж. И Борст, А. Кодирование визуальной информации о движении и надежность в импульсных и градуированных потенциальных нейронах. J. Neurosci. 17 , 4809–4819 (1997).

    CAS Статья Google ученый

  • 14

    Рике, Ф., Варланд, Д., де Руйтер ван Стивенинк, Р. и Биалек, В. Шипы: изучение нейронного кода (MIT Press, Кембридж, Массачусетс, 1997).

    Google ученый

  • 15

    де Рюйтер ван Стивенинк, Р. Р., Левен, Г. Д., Стронг, С. П., Коберле, Р. и Биалек, В. Воспроизводимость и изменчивость в поездах нервных импульсов. Наука 275 , 1805–1808 (1997).

    CAS Статья Google ученый

  • 16

    Буракас, Г. Т., Задор, А. М., ДеВиз, М. Р. и Олбрайт, Т. Д. Эффективное распознавание временных паттернов чувствительными к движению нейронами в зрительной коре приматов. Нейрон 20 , 959–969 (1998).

    CAS Статья Google ученый

  • 17

    Кнудсен, Э. И., Кониши, М. Механизмы локализации звука у сипухи ( Tyto alba ). J. Comp. Physiol. 133 , 13–21 (1979).

    Артикул Google ученый

  • 18

    Симмонс, Дж. А. Восприятие информации о фазе эха в гидролокаторе летучей мыши. Наука 204 , 1336–1338 (1979).

    CAS Статья Google ученый

  • 19

    Майнен, З. Ф. и Сейновски, Т. Дж. Надежность синхронизации спайков в нейронах неокортекса. Наука 268 , 1503–1506 (1995).

    CAS Статья Google ученый

  • 20

    Теуниссен, Ф. Э. и Миллер, Дж. П. Временное кодирование в нервных системах: строгое определение. J. Comput. Neurosci. 2 , 149–162 (1995).

    CAS Статья Google ученый

  • 21

    Мак-Кларкин, Дж. У., Оптикан, Л. М., Ричмонд, Б. Дж. И Гоун, Т. Дж. Параллельная обработка и сложность временно закодированных нейронных сообщений в визуальном восприятии. Science 253 , 675–677 (1991).

    CAS Статья Google ученый

  • 22

    Ваадиа, Э.I. et al. Динамика нейронных взаимодействий в коре головного мозга обезьян в зависимости от поведенческих событий. Природа 373 , 515–518 (1995).

    CAS Статья Google ученый

  • 23

    Лоран, Г. и Давидовиц, В. Кодирование обонятельной информации с помощью колеблющихся нейронных сборок. Наука 265 , 1872–1875 (1994).

    CAS Статья Google ученый

  • 24

    Лоран, Г.Образы и мелодии запаха. Neuron 16 , 473–476 (1996).

    CAS Статья Google ученый

  • 25

    Теуниссен, Ф. Э. и Доуп, А. Дж. Временная и спектральная чувствительность сложных слуховых нейронов в ядре HVc самцов зебровых зябликов. J. Neurosci. 18 , 3786–3802 (1998).

    CAS Статья Google ученый

  • 26

    Theunissen, F.Э. и Миллер, Дж. П. Представление сенсорной информации в церковой сенсорной системе сверчка. II Теоретико-информационный расчет точности системы и оптимальной ширины перестройки четырех первичных интернейронов. J. Neurophysiol. 66 , 1690–1703 (1991).

    CAS Статья Google ученый

  • 27

    Кьяер, Т. В., Герц, Дж. А. и Ричмонд, Б. Дж. Декодирование сигналов нейронов коры: сетевые модели, оценка информации и пространственная настройка. J. Comput. Neurosci. 1 , 109–139 (1994).

    CAS Статья Google ученый

  • 28

    Стронг, С. П., Коберле, Р., де Рюйтер ван Стивенинк, Р. Р. и Биалек, В. Энтропия и информация в поездах нейронных всплесков. Phys. Rev. Lett. 80 , 197–200 (1998).

    CAS Статья Google ученый

  • 29

    Томсон, Д.Дж. И Чав, А. Д. в «Успехи в спектральном анализе и обработке массивов» Том 1. (изд. Хайкин, С.) 58–113 (Прентис Холл, Энглвуд Клиффс, Нью-Джерси, 1991).

    Google ученый

  • 30

    Theunissen, F. E. Исследование принципов сенсорного кодирования с использованием передовых статистических методов. Диссертация, Univ. Калифорния, Беркли (1993).

    Google ученый

  • 31

    Мармарелис, П.И Мармарелис, В. Подход с использованием белого шума (Пленум, Нью-Йорк, 1978).

    Google ученый

  • 32

    Бур Э. и Кайпер П. Триггерная корреляция. IEEE Trans. Биомед. Англ. 15 , 169–179 (1968).

    Артикул Google ученый

  • 33

    ДеАнгелис, Г. К., Охзава, И. и Фриман, Р. Д. Динамика рецептивного поля в центральных зрительных путях. Trends Neurosci. 18 , 451–458 (1995).

    CAS Статья Google ученый

  • 34

    Эггермонт, Дж. Дж., Йоханнесма, П. И. М. и Аэрцен, А. М. Х. Дж. Методы обратной корреляции в слуховых исследованиях. Q. Rev. Biophys. 16 , 341–414 (1983).

    CAS Статья Google ученый

  • 35

    Габбиани Ф. Кодирование изменяющихся во времени сигналов в цепочках спайков линейных и полуволновых выпрямляющих нейронов. Network Comput. Neural Sys. 7 , 61–65 (1996).

    Google ученый

  • 36

    Родди, Дж. К., Гириш, Б. и Миллер, Дж. П. Оценка производительности моделей нейронного кодирования в присутствии шума. J. Comput. Neurosci. (в печати).

  • 37

    Хааг, Дж. И Борст, А. Активные свойства мембраны и кодирование сигнала в нейронах с градуированным потенциалом. J. Neurosci. 18 , 7972–7986 (1998).

    CAS Статья Google ученый

  • 38

    Clague, H., Theunissen, F. & Miller, J.P. Влияние адаптации на нейронное кодирование первичными сенсорными интернейронами в церкальной системе сверчка. J. Neurophysiol. 77 , 207–220 (1997).

    CAS Статья Google ученый

  • 39

    Рике, Ф., Боднар, Д. и Биалек, В. Натуралистические стимулы увеличивают скорость и эффективность передачи информации первичными слуховыми нейронами. Proc. R. Soc. Лондон. B Biol. Sci. 262 , 259–265 (1995).

    CAS Статья Google ученый

  • 40

    Warland, D., Landolfa, MA, Miller, JP & Bialek, W. в книге Analysis and Modeling of Neural Systems (ed. Eeckman, F.) 327–333 (Kluwer, Norwell, Massachusetts, 1991 ).

    Google ученый

  • 41

    Перкель, Д. Х. и Баллок, Т.H. Нейронное кодирование. Neurosci. Res. Прог. Бык. 6 , 223–344 (1967).

    Google ученый

  • 42

    Шуга, Н. Кортикальные вычислительные карты для слуховой визуализации. Нейронная сеть. 3 , 3–21 (1990).

    Артикул Google ученый

  • 43

    Марголиаш, Д. и Форчун, Э. С. Нейроны, чувствительные к временной и гармонической комбинации в HVc зебрового зяблика. J. Neurosci. 12 , 4309–4326 (1992).

    CAS Статья Google ученый

  • 44

    О’Скалайд, С. П., Уилсон, Ф. А. и Гольдман-Ракич, П. С. Ареальная сегрегация нейронов обработки лица в префронтальной коре. Наука 278 , 1135–1138 (1997).

    CAS Статья Google ученый

  • 45

    Ferster, D. & Spruston, N.Взлом нейронного кода. Наука 270 , 756–757 (1995).

    CAS Статья Google ученый

  • 46

    Эбботт, Л. Ф. Декодирование возбуждения нейронов и моделирование нейронных сетей. Q. Rev. Biophys. 27 , 191–331 (1994).

    Артикул Google ученый

  • 47

    Миллер Г. А. в Теория информации в психологии: проблемы и методы 95–100 (Free Press, Glencoe, Illinois, 1955).

    Google ученый

  • 48

    Голомб, Д., Герц, Дж., Панцери, С., Ричмонд, Б. и Тревес, А. Насколько хорошо мы можем оценить информацию, содержащуюся в ответах нейронов, по ограниченным выборкам? Neural Comput. 9 , 649–665 (1997).

    CAS Статья Google ученый

  • 49

    Коппл, С. Фазовая синхронизация с высокими частотами в слуховом нерве и большом улитковом ядре сипухи, Tyto alba . J. Neurosci. 17 , 3312–3321 (1997).

    CAS Статья Google ученый

  • 50

    Варланд Д. К., Рейнагель П. и Мейстер М. Расшифровка визуальной информации из популяции ганглиозных клеток сетчатки. J. Neurophysiol. 78 , 2336–2350 (1997).

    CAS Статья Google ученый

  • 51

    Родди, Дж. К.& Джейкобс, Г. А. Теоретико-информационный анализ динамического кодирования нитевидными механорецепторами в церкальной системе сверчка. J. Neurophysiol. 75 , 1365–1376 (1996).

    CAS Статья Google ученый

  • 52

    Грей, К. М., Кониг, П., Энгель, А. К. и Сингер, В. Колебательные реакции зрительной коры головного мозга кошки демонстрируют межколоночную синхронизацию, которая отражает глобальные свойства стимула. Nature 338 , 334–337 (1989).

    CAS Статья Google ученый

  • 53

    Абелес, М., Бергман, Х., Маргалит, Э. и Ваадиа, Э. Пространственно-временные паттерны возбуждения в лобной коре головного мозга обезьян. J. Neurophysiol. 70 , 1629–1638 (1993).

    CAS Статья Google ученый

  • 54

    ДеЧармс, Р. К. и Мерзенич, М. М. Первичная корковая репрезентация звуков путем координации времени потенциала действия. Nature 381 , 610–613 (1996).

    CAS Статья Google ученый

  • Кодирование информации в коре независимыми или скоординированными популяциями

    Кора головного мозга является основным местом нашего сенсорный опыт, наши планы и контроль наших действий. В виде такой, он был тщательно исследован с момента зарождения мозга науке и интенсивно изучается на уровне отдельных нейроны более 40 лет (1, 2).Тем не менее, это кажется справедливым оценка, чтобы сказать, что самый важный вопрос о корковая физиология — «Какая основная корковая популяция сигнальный механизм? »- окончательный ответ еще не получен и по-прежнему является предметом бурных дискуссий (3–9). Кора головного мозга функции, объединяя по существу независимые нейронные сигналы, как на выборах, или сигнал приходит через координацию элементы, как в симфонии (3, 10, 11)? Статья Хатсопулоса et al., фигурирующая в этом выпуске Proceedings (12), предоставляет интересные новые примеры пар нейронов в первичной моторной коре головного мозга обезьян, передающих информацию по относительному времени их потенциалов действия во время Задача с выбором из восьми вариантов. Формирование четких различий между независимое и скоординированное кодирование является сложной задачей, потому что корковое нейроны имеют перекрывающиеся функции и работают вместе, распределяя сигналы по многим элементам. Эти авторы представляют прямую, измеримое различие между передачей информации в независимых и скоординированное кодирование и использование их данных для оценки этих двух гипотезы.

    Гипотеза независимого кодирования.

    Независимое кодирование предполагает, что каждый корковый нейрон представляет отдельный сигнал. Корковые нейроны как в сенсорной, так и в моторной системах широко настроены. для особенностей мира, с данным сенсорным стимулом или двигательным актом вовлекает очень большое количество корковых нейронов (4, 6, 10, 13). Каким бы ни был соответствующий размер корковых популяций, существенные особенность, зафиксированная гипотезой независимого кодирования, заключается в том, что все информация, которая может быть получена от одного нейрона, может быть полученный от одного только этого нейрона, без ссылки на деятельность любых других.Независимые сигналы могут быть зашумленными, перекрывающиеся или избыточные, и, возможно, потребуется их усреднение или объединение для становятся ясными, но переносятся они самостоятельно.

    Одним из хорошо известных сенсорных примеров является активность нейронов в МТ области коры при выполнении заданий на распознавание движений обезьянами. Было показано, что отдельные нейроны в этой области избирательность для визуального движения, которая параллельна перцепционному производительность животного. Эти данные показывают, что может быть достаточно информация, доступная для выполнения конкретной задачи дискриминации в независимые сигналы одиночных нейронов (8, 14).Однако это действительно не указывать, есть ли в координация популяций этих нейронов, возможно, информация необходим для более сложных задач или задач, требующих более быстрого решение.

    Хорошо изученный пример независимого кодирования населения в первичная моторная кора — это метод популяционного вектора для вычисления предсказал направление движения от активности большого количества независимо регистрируемые мотонейроны (13, 15–17).Каждый нейрон предполагается, что он независимо «голосует» за предпочтительное направление движения или для его кривой настройки полного направления в более современных реализации (18). Метод вектора популяции представляет собой независимый код популяции, а не скоординированный код, как определено ниже. Как и в предыдущем примере, эти методы не говорят нам, дополнительная информация доступна в согласованной деятельности эти популяции.

    Гипотеза согласованного кодирования.

    Согласованное кодирование гипотеза предполагает, что сообщения в коре передаются по крайней мере частично из-за относительного времени потенциалов действия популяции нейронов.Чтобы понять сигнал от каждого нейрона, кора головного мозга имеет одновременно слушать и другие нейроны. Определяющий характеристика скоординированного кодирования состоит в том, что сигнал должен быть выведен от отношений между несколькими нейронами в популяции, будь то это отношение — синхронность или любой другой образец; это не получено подсчет независимых голосов частные лица.

    В настоящее время существует ряд случаев, когда нейроны коры было показано, что они передают информацию по их относительному времени, когда информация отсутствует в их независимых сигналах скорострельности (9, 11, 19–22).Например, данные показали, что временно скоординированные потенциалы действия могут систематически сигнализировать о сенсорном объекте особенности даже при отсутствии изменения скорострельности (19). Многие слуховые нейроны коры головного мозга обезьян, находящихся под наркозом, не изменяют своего средняя интенсивность возбуждения во время продолжающейся фазы непрерывных стимулов, поэтому независимое кодирование скорости возбуждения может быть в значительной степени исключено для нейронов изучается в этом особом обстоятельстве. Слуховые нейроны коры могут изменить свою частоту синхронных всплесков в этом состоянии, и изменения синхронности зависят от частоты стимула, отображаются на карте систематически по кортикальной поверхности и следите за ходом времени постоянных стимулов.Эти данные сенсорной системы очень вопросы, аналогичные тем, которые были подняты Hatsopoulos et al. дюйм двигательная система — оба исследуют систематическое представление функций корковые спайки синхронизированы по шкале времени 5–15 мс в отсутствие параллельного увеличения скорострельности. Примеры частных случаев, в которых Темпы стрельбы не изменились, что особенно интересно, потому что они может четко продемонстрировать скоординированную передачу сигналов в отсутствие независимая сигнализация скорострельности.Предполагается, что тот же скоординированные сигнальные механизмы могут использоваться в более общем смысле. Обстоятельства, при которых изменяются расценки стрельбы.

    Родственные примеры также были обнаружены в лобной и моторной коре. (23–26). Vaadia et al. обнаружили, что нейроны лобной кора головного мозга обезьян, выполняющих двигательную задачу, может показать изменения в их количество синхронных всплесков по отношению к поведению, даже в отсутствие изменений средней скорострельности (27). Также были показаны примеры нейронов лобной коры, излучающих паттерны синхронные всплески по отношению к поведению (11, 27).

    Независимая и скоординированная сигнализация обычно смешивается, и часто неясно, как их разделить. Например, в стимулы или движения, многие нейроны запускают всплеск действия потенциалы и тем самым сигнализируют об этих событиях независимо. Однако всплески почти совпадают, поэтому соответствующий сигнал также может быть синхронный всплеск среди населения. Нейроны интегрируют свои входы как во времени, так и в пространстве, поэтому ясно, что на уровне синапсов, количество и время входных импульсов вносят свой вклад в постсинаптический ответ.Оба кода декодируются с использованием одного и того же набора синаптические механизмы. Недавние данные показали, что для корковых нейронов синхронизация входных сигналов может играть особенно важную роль (28). Учитывая тесную взаимосвязь между уровнем популяции и временем, как мы можем наиболее четко задать вопрос, является ли передача сигналов коры головного мозга в первую очередь предполагает независимое голосование отдельных лиц или скоординированную сигнализацию? А формализм, основанный на теории информации, может решить эту проблему.

    Введение в теорию информации.

    «Информация теория »- это несколько вводящее в заблуждение название; это действительно меньше теории чем простой тип статистики, используемый для измерения произвольных величины, аналогичные коэффициентам корреляции и P значения. Взяв в качестве примера знакомую статистику, корреляция коэффициент выражает, грубо говоря, степень, в которой два параметра связаны друг с другом. Если нейронный ответ сильно коррелирует с какая-то особенность мира или поведения, тогда будет высокий коэффициент корреляции между нейронным ответом и этой особенностью: если кто-то знает об одном из них, можно сделать хороший прогноз относительно другой.«Взаимная информация» — это центральная информация теоретическая статистика, которая чем-то похожа на традиционную корреляция. В нашем примере, если нейронный ответ сильно коррелирован с какой-то особенностью, тогда также будет высокая взаимная информация между ответом и этой функцией. Если известно, что нейрон ответ, то можно получить некоторую информацию о том, что функция, вероятно, был, и если кто-то знает эту функцию, то у него есть некоторая информация о каков вероятный ответ нейрона. Взаимная информация также некоторые преимущества помимо корреляции: он может количественно определять непостоянные отношения между функцией и ответом, и это учитывает учитывать полное распределение рассматриваемых функций и ответов.

    Полное описание теоретической статистики информации Конечно, далеко за пределами этого комментария и его можно найти в другом месте (29, 30). Однако важно понимать, что теория информации — это не теория кодирования в нервной системе, которую можно поддержать или опровергнуть такая теория является чем-то большим, чем коэффициент корреляции; это просто набор полезных статистических методов. В частности, показывая высокие взаимные информация между нейронным сигналом и стимулом или движением просто показывает, что существует прочная и последовательная связь между два.Это не показывает, что нейронный сигнал важен для кодирования, что это наиболее подходящий сигнал для измерения или что он используется нервная система вообще, не более чем высокий коэффициент корреляции показал бы эти вещи. Выводы о важности сигнала зависят от теории нейронной функции.

    На рис. 1 показаны некоторые карикатурные примеры использования теоретико-информационной статистики. Черный и белые блоки на рис. 1 A указывают на наличие или отсутствие какой-либо особенности мира (стимул, движение, транзистор в компьютер, неважно).Линии ниже указывают схему стрельбы конкретный нейрон (или любой другой сигнальный элемент) с действием потенциалы обозначены вертикальными линиями. Стимул имеет два возможности, и они составляют один или / или выбор белый или черный. Информация, необходимая для указания ответа на одиночный выбор «или / или» определяется как один бит. В верхнем регистре активность нейрона идеально коррелирует с этим признаком, поэтому каждый всплеск указывает на полный ответ на этот выбор и тем самым передает один бит информации.Остался только один бит информации. о функции (одно решение или / или), поэтому нейрон не может возможно, кодируйте более одного бита на событие. Нейрон в нижнем случай менее коррелирован, поэтому его пик дает некоторую информацию о стимула, но не достаточного, чтобы устранить всю неопределенность, и таким образом передает меньше одного бита.

    Рисунок 1

    Теоретико-информационный анализ шиповых поездов (см. текст).

    Рис. 1 B показывает немного более сложный пример. аналогично исследованному Hatsopoulos и др. .Здесь восемь возможных вариантов направления, обозначенных стрелками указывая на восемь точек по кругу. Единственный выбор из восьми можно разделить на три варианта из двух (2 3 = 8), и представление того же выбора в виде паттернов из трех Также показан независимый выбор черного / белого. В этом случае нейрон может передавать до трех битов на функцию, а нейрон показывает сигналы три бита на пик, но усреднение 0,54 бита по восьми функциям.

    Взаимная информация соответствует изменению неопределенности, которое один имеет элемент в первом сигнале, учитывая второй сигнал.Если количество возможностей для первого сигнала велико, и многие из возможности вполне вероятны, то есть много неуверенность. Если вероятных возможностей мало, значит, мало неуверенность. Если неопределенность изменится с восьми возможностей до одной возможность обучения второму сигналу, как на рис.1 B , тогда неопределенность изменяется на log 2 (8) — log 2 (1) = 3 бита. Неопределенность измеряется сумма вероятностей каждого события, умноженная на логарифм вероятности этого события, и это называется энтропией.Из этого можно вывести определение взаимной информации, используемое Hatsopoulos et al. al. , г. где p (dir) — вероятность данного движения направление, p (event dir) — вероятность наблюдения заданное количество событий (например, всплесков) в корзине во время определенного направление движения, а p (событие) — вероятность наблюдение за этим количеством событий в корзине при любом направлении движения.

    Отделение независимо от скоординированного кодирования.

    Вызов заключается в том, чтобы четко определить разницу между передаваемой информацией независимо от нейронов популяции и передаваемой информации путем координации популяции (31, 32), а затем изучить, независимая или скоординированная модель лучше характеризует корковые нейроны во время поведения. Статья Хатсопулоса и др. . сосредоточен непосредственно по этому центральному вопросу. Этим авторам удалось записать с популяции нейронов первичной моторной коры обезьян во время достижение задачи, требующей, чтобы животные переместили манипуландум в выбранная цель.Им также удается определить независимые и синхронное кодирование и оценка информационного содержания в каждом, используя свои данные. Таким образом, этот документ побуждает нас решить видим ли мы ответ на давний вопрос о корковой Кодирование населения начинает обретать форму в их выводах.

    Разработан метод синхронного сравнения информации. всплески с информацией в сдвинутых синхронных всплесках. Сдвинут синхронные всплески определяются как всплески, вызванные одним нейрон во время одного испытания и второй нейрон во время другого испытания, длинный стандартный метод (33, 34).Тогда возникает вопрос, есть ли больше взаимной информации между синхронными спайками и направления движения, чем в независимых сигналах двух нейроны, измеренные с помощью сдвинутых синхронных спайков. С помощью различие между независимым и скоординированным кодированием, предложенное выше, можно было бы сравнить информационное содержание между независимым кодированием и любой тип скоординированного кодирования, а не только синхронные всплески.

    Авторы показывают примеры пар, которые показывают больше взаимной информации в их синхронных пиках, чем в независимых сигналах.Мультик Пример этого показан на рис. 1 C . Два человека показанные здесь нейроны не имеют взаимной информации с изображенными стимул или признак движения. Каждый нейрон с одинаковой вероятностью сработает во время каждой функции. Однако синхронные всплески между двумя нейроны передают информацию о стимуле — они с большей вероятностью можно найти во время черных, чем во время белых черт.

    Теоретико-информационные меры позволяют установить минимум суммы информации, потенциально доступной в сигнале, но не максимум, потому что всегда возможно, что другое декодирование сигнала может передать еще больше информации.Поэтому, сравнивая оценки минимум информации, который можно найти в двух кодах, не обязательно укажите, какой на самом деле несет больше сигнала в коре головного мозга.

    Теоретический анализ информации также склонен к значительным проблемы с отбором проб, поскольку количество информация в сигнале, когда данных недостаточно, чтобы сделать правильная оценка. Это делает крайне важным проверку информации. теоретические оценки надежности с помощью таких методов, как подвыборка данные.Используя разные части набора данных, можно убедиться, что К такому же выводу приходит и то, что использование подвыборок увеличивающегося размера обеспечивает сходимость к расчетному значению.

    Концептуальный подход Хатсопулоса и др. . ведет в новое важное направление различения информационного содержания независимых и скоординированных кодов популяции бодрствующих животных. Их данные, однако, вызывают много дополнительных вопросов. Будет критически важно количественно определить степень, в которой иллюстрированные примеры нейроны, демонстрирующие синхронное кодирование, представляют собой статистически устойчивый и общее явление в корковом кодировании.Будущие наборы данных, содержащие больше всплесков, большее количество испытаний и большее количество нейронов должен позволить более статистически достоверные измерения явлений они предлагают и должны дать оценку масштабов и избирательность дополнительной информации, переносимой многими парами нейронов. Для Например, хочется знать не только о том, становится ли синхронность статистически значимо во время определенного события, но является ли оно существенно изменились в разных условиях, на сколько изменилось для многих пар нейронов (19), и сколько информации это изменение в среднем переносится.В конечном итоге нам потребуются новые аналитические методы оценки скоординированной информации, передаваемой по всему популяции увеличивающегося размера, а не взятые пары нейронов изолированно (11, 25, 35, 36). Можно надеяться, что вопрос о том, основной корковый код действует путем объединения независимых сигналов или скоординированные популяции в конечном итоге будут разрешены эмпирически в этом способ.

    Сноски

    • ↵ * Кому следует обращаться с запросами на перепечатку.Эл. адрес: decharms keck.ucsf.edu.

    • Комментарий к статье начинается на странице 15706.

    • Copyright © 1998, Национальная академия наук

    Семинар по теории кодирования и информации — CMSA

    Семинар по теории кодирования и информации состоится 9-13 апреля 2018 г. в Центре математических наук и приложений , расположенном по адресу 20 Garden Street, Кембридж, Массачусетс.

    Этот семинар будет посвящен новым разработкам в области кодирования и теории информации, которые находятся на пересечении комбинаторики и сложности, и соберет вместе исследователей из нескольких сообществ — теории кодирования, теории информации, комбинаторики и теории сложности — для обмена идеями и налаживания сотрудничества. атаковать эти проблемы.

    Прямо на этом пересечении комбинаторики и сложности, локально тестируемые / корректируемые коды и коды, декодируемые списком, оба имеют глубокие связи (а в некоторых случаях и прямую мотивацию) теории сложности и псевдослучайности, и недавний прогресс в этих областях напрямую использовался и исследовал связи с комбинаторикой и теорией графов.Одна из целей этого семинара — продвинуть вперед эти и другие темы, входящие в компетенцию годичной программы. Другая цель — выделить (подмножество) тем теории кодирования и информации, которые особенно подходят для сотрудничества между этими сообществами. Примеры таких тем включают полярные коды; новые результаты по кодам Рида-Мюллера и их порогам; кодирование для распределенного хранения и памяти ДНК; кодирование удалений и ошибок синхронизации; емкость хранения графиков; теория информации без ошибок; границы кодов с использованием полуопределенного программирования; тензоризация в распределенном исходном и канальном кодировании; и применения теоретико-информационных методов в вероятности и комбинаторике.Все эти темы вызвали в последнее время большой интерес в сообществах теории кодирования и информации и имеют тесные связи с комбинаторикой и сложностью, которые могут выиграть от дальнейшего изучения и сотрудничества.

    Участие: Семинар открыт для участия всех заинтересованных исследователей в зависимости от возможностей. Нажмите здесь, чтобы зарегистрироваться.

    Щелкните здесь, чтобы просмотреть список участников.

    Список вариантов жилья, удобных для Центра, также можно найти на нашей странице с рекомендациями по размещению .

    Среди подтвержденных участников:

    • Эммануэль Аббе , Принстонский университет
    • Симеон Болл , Политехнический университет Каталонии,
    • Борис Бух , Университет Карнеги-Меллона
    • Махди Черагчи , Имперский колледж Лондона
    • Шивакантх Гопи , Принстонский университет
    • Елена Григореску , Университет Пердью
    • Хамед Хассани , Пенсильванский университет
    • Навин Кашьяп , Индийский институт науки
    • Янг-Хан Ким , Калифорнийский университет, Сан-Диего
    • Swastik Kopparty , Университет Рутгерса
    • Нати Линиал , Еврейский университет Иерусалима
    • Шахар Ловетт , Калифорнийский университет, Сан-Диего,
    • Уильям Мартин , Вустерский политехнический институт
    • Арья Мазумдар , Массачусетский университет в Амхерсте,
    • Ор Меир , Хайфский университет
    • Olgica Milenkovic , ECE Illinois
    • Чандра Наир , Китайский университет Гонконга
    • Юваль Перес , Microsoft Research
    • Юрий Полянский , Массачусетский технологический институт
    • Максим Рагинский , Иллинойсский университет в Урбана-Шампейн,
    • Sankeerth Rao Karingula, UC San Diego
    • Анкит Сингх Рават , Массачусетский технологический институт
    • Нога Рон-Зеви , Хайфский университет
    • Рон Рот , Израильский технологический институт
    • Атри Рудра , Государственный университет Нью-Йорка, Буффало
    • Алексей Самородницкий , Еврейский университет Иерусалима
    • Ицхак Тамо , Тель-Авивский университет
    • Амнон Та-Шма , Тель-Авивский университет
    • Himanshu Tyagi , Индийский институт науки
    • Дэвид Цукерман , Техасский университет в Остине

    Соорганизаторами этого семинара являются Венкат Гурусвами , Александр Барг , Мэри Вуттерс .Более подробная информация об этом мероприятии, включая участников, будет обновлена ​​в ближайшее время.

    Щелкните здесь, чтобы просмотреть список участников.

    График:

    Понедельник, 9 апреля

    Время. Динамик Заголовок / Аннотация
    9:00 — 9:30 Завтрак
    9:30 — 10:00 Нога Рон-Зеви Название: Улучшенное декодирование списком и декодирование локальным списком алгебраических кодов.

    Abstract: Мы показываем новые и улучшенные свойства исправления ошибок свернутых кодов Рида-Соломона и кодов кратности.Оба этих семейства кодов основаны на полиномах над конечными полями, и оба явились источником недавних достижений в теории кодирования. Свернутые коды Рида-Соломона были первыми явными конструкциями кодов, которые, как известно, достигли способности декодирования списков; коды с многомерной кратностью были первыми конструкциями высокоскоростных локально корректируемых кодов; и одномерные коды кратности также известны для достижения возможности декодирования списков. Однако предыдущий анализ свойств исправления ошибок этих кодов не дал оптимальных результатов.В частности, в настройке декодирования списка гарантии размеров списка были полиномиальными по длине блока, а не постоянными; а для многомерных кодов кратности локальные алгоритмы декодирования списков не могли выходить за рамки границы Джонсона.

    Мы показываем, что свернутые коды Рида-Соломона и коды множественности на самом деле лучше, чем известные ранее, в контексте (локального) декодирования списком, улучшая длинную строку из
    предыдущей работы. Точнее, сначала мы покажем, что (а) свернутые коды RS достигают возможности декодирования списков с постоянными размерами списка, независимо от длины блока; и (b) высокоскоростные одномерные коды кратности также могут быть восстановлены по списку с постоянными размерами списка.Используя наш результат для одномерных кодов кратности, мы показываем, что (c) высокоскоростные многомерные коды кратности являются локально восстанавливаемыми кодами. (1 + γ)), где γ> 0 — любая константа.2, решая давнюю открытую проблему, поднятую Гурусвами и Индиком, и делает это с удивительно маленьким размером списка (мы отмечаем, что Гурусвами показал, что такой результат невозможен с использованием линейных кодов, и действительно, наш код не является линейным) .
    Эквивалентно, с точки зрения диспергаторов, мы конструируем однобитные сильные диспергаторы с ε-ошибкой с почти оптимальной длиной затравки и почти оптимальной потерей энтропии. Основным ингредиентом в конструкции является новый (и почти оптимальный) несбалансированный двухкомпонентный источник экстрактор.Экстрактор извлекает один бит с постоянной ошибкой из двух независимых источников, где один источник имеет длину n и крошечную минимальную энтропию O (log log n), а другой источник имеет длину O (log n) и произвольно малую постоянную скорость минимальной энтропии.
    Совместная работа с Авраамом Бен-Аройей и Амноном Та-Шма. Слайды

    10:30 — 11:10 Перерыв
    11:10 — 12:00 Янг-Хан Ким Заголовок : Элементы индексного кодирования
    Аннотация: Первоначально введенная для минимизации количества передач в спутниковой связи, проблема индексного кодирования обеспечивает простую, но богатую модель для нескольких важных инженерных проблем в сетевой связи, таких как вещание контента, одноранговая связь, распределенное кэширование, ретрансляция между устройствами и управление помехами.
    Этот доклад призван предоставить широкий обзор этой увлекательной проблемы — возможно, одной из самых важных открытых проблем в теории сетевой информации — в четырех частях. Сначала мы даем математическое описание проблемы и вводим основные свойства оптимальных индексных кодов. Во-вторых, мы обсуждаем несколько схем кодирования, основанных на алгебраических, теоретико-графических и теоретико-информационных инструментах. В-третьих, мы устанавливаем границы производительности и обсуждаем их значение в теории сетевой информации.В-четвертых, мы исследуем взаимосвязь между индексным кодированием и другими проблемами, такими как сетевое кодирование, распределение памяти и игры в угадывание. Никакого предварительного знакомства с теорией сетевой информации не предполагается. Слайды
    12:00 — 13:30 Обед
    13:30 — 14:00 Навин Кашьяп

    Индийский институт науки

    Заголовок : Вероятностная пересылка по сетям: кодировать или не кодировать?

    Аннотация: Рассмотрим сеть (т.е.е., связный граф) с большим количеством узлов, один из которых выделяется как исходный. На исходном узле есть $ k $ пакетов данных для широковещательной рассылки всем узлам в сети. Пакеты данных $ k $ кодируются в закодированные пакеты $ n \ ge k $ (с использованием кода MDS над достаточно большим полем), так что любых $ k $ из закодированных $ n $ пакетов достаточно для восстановления исходного $ k $ пакетов данных. Источник передает все $ n $ пакетов своим односкачковым соседям. После этого узлы следуют вероятностному протоколу пересылки: каждый узел, получив конкретный закодированный пакет в первый раз, пересылает его всем своим соседям с одним переходом только с определенной вероятностью $ p $.Эта вероятностная пересылка происходит независимо между всеми узлами и пакетами. Мы объявляем такой вероятностный протокол пересылки полезным, если ожидаемая доля сетевых узлов, которые получают не менее $ k $ из $ n $ закодированных пакетов, составляет не менее $ 1- \ delta $ для некоторого небольшого $ \ delta> 0 $.

    Мы, конечно, хотели бы использовать протокол при наименьшем значении вероятности $ p $, которое делает протокол полезным, так как это минимизирует ожидаемое общее количество передач по всем узлам сети.Оказывается, избыточность $ \ rho: = (n-k) / k $, вводимая схемой кодирования, существенно влияет на это минимальное ожидаемое количество передач. Результаты моделирования показывают, что в топологиях сети, которые являются древовидными, введение избыточности в форме кодирования не приносит пользы; но в топологиях с хорошей связью введение некоторой (но не слишком большой) избыточности может значительно снизить ожидаемое общее количество необходимых передач. Мы опишем наш предварительный анализ этого явления, используя идеи теории перколяции.

    Этот доклад основан на работе с Б. Виней Кумар и Рошан Энтони. Слайды
    14:00 — 14:30 Чандра Наир TItle: Наблюдения за экстремизаторами некоторых невыпуклых задач оптимизации в теории информации и некоторые открытые вопросы, мотивированные ими.
    Аннотация: Скоростные области в сетевой теории информации давно охарактеризованы с помощью вспомогательных случайных величин. В последние несколько лет оптимальность или субоптимальность некоторых основных диапазонов скорости была установлена ​​путем вычисления оптимальных экстремальных вспомогательных средств, т.е.е. путем вычисления оптимизаторов, принадлежащих к семейству невыпуклых задач оптимизации. Эти результаты и вычисления, кажется, выявляют интригующую взаимосвязь между «локальной тензоризацией» и «глобальной тензоризацией». Действительно, несколько контрпримеров к различным вопросам оптимальности были выведены на основе вышеупомянутой интуитивной связи. В этом докладе я попытаюсь обрисовать эти наблюдения и формально обозначить различные наблюдения как открытые проблемы. Я также расскажу о потенциальном пути (проверенном на небольших примерах с помощью моделирования), который поддерживает это соединение, а также о потенциальных последствиях, таких как (потенциально эффективное) вычисление параметров сверхсокращаемости.3, и это первая явная конструкция, которая так близко подходит к оценке Гилберта-Варшамова.
    Технически мы определяем семплеры четности. Сэмплер четности — это набор наборов {S_i} со свойством, что для каждого «тестового» набора A с заданной постоянной плотностью epsilon_0 вероятность того, что набор S_i из набора попадет в тестовый набор A четное количество раз, составляет примерно половина. Редкий семплер четности сразу подразумевает хороший код с расстоянием, близким к половине. Полный t-комплекс всех последовательностей мощности t является хорошим семплером четности, но со слишком большим количеством наборов в коллекции.4.
    Я покажу, как можно получить более точные семплеры с явной проверкой четности (и, следовательно, более точные явные коды), используя вариант зигзагообразного произведения. В семплере случайного блуждания существует множество наборов, которые существенно перекрываются. Один из способов взглянуть на зигзагообразный продукт состоит в том, что он берет подгруппу выборки случайного блуждания, и эта подгруппа имеет меньшее перекрытие между наборами в коллекции. Зигзагообразный продукт достигает этого за счет небольшого внутреннего состояния. Я покажу, что, увеличивая внутреннее состояние, можно еще больше уменьшить перекрытие и, как результат, улучшить качество семплера четности.
    4:30 — 18:00 Приветственный прием

    Вторник, 10 апреля

    Время Динамик Заголовок / Аннотация
    9:00 — 9:30 Завтрак
    9:30 — 10:00 Химаншу Тяги Заголовок: Распределенное тестирование независимости и новый вопрос, связанный с гиперсокращаемостью

    Аннотация: Две стороны, наблюдающие за последовательностями несмещенных случайных битов, стремятся определить, являются ли биты независимыми или имеют заданную корреляцию.Тривиальная схема подразумевает, что одна сторона отправляет свои биты другой, которая, в свою очередь, решает, являются ли биты независимыми или коррелированными. Может ли какая-либо другая схема выполнить проверку на независимость, используя меньше коммуникаций, чем тривиальная схема? Мы демонстрируем одностороннюю схему связи, основанную на линейной корреляции, которая действительно превосходит тривиальную схему. Фактически наша схема распространяется на произвольное распределение. Кроме того, мы устанавливаем нижнюю границу для односторонней связи, необходимой для проверки независимости, которая является жесткой для случаев бинарного симметричного распределения и гауссовского симметричного распределения.Наша нижняя граница использует сверхсокращаемость для получения границы изменения меры, но работает только для протоколов односторонней связи. Его расширение на многоуровневые протоколы открывает новые интересные вопросы, связанные с гиперсокращаемостью.

    10:00 — 10:30 Самородницкий Алексей Название: Об энтропии зашумленной функции.
    Аннотация: Пусть X — равномерно распределенная двоичная последовательность длины n. Пусть Y будет зашумленной версией X, полученной путем переворачивания каждой координаты X независимо с эпсилон-вероятностью.Мы хотим придумать однобитную функцию от Y, которая предоставляет как можно больше информации о X.
    Кортэйд и Кумар предположили, что лучшее, что можно сделать, — это выбрать координатную функцию f (Y) = Y_i для некоторого i. между 1 и n. Мы доказываем гипотезу для больших значений эпсилон (эпсилон> 1/2 — дельта, для некоторой абсолютной постоянной дельты).
    Основным новым техническим ингредиентом доказательства является утверждение о том, что если F — вещественная функция на булевом кубе, а G — зашумленная версия F, то энтропия Ent (G) ограничена сверху ожидаемой энтропией. проекции F на случайное подмножество координат определенного размера.
    10:30 — 11:10 Перерыв
    11:10 — 12:00 Максим Рагинский Название: Алгоритмическая устойчивость и обобщение в машинном обучении: теоретико-информационный анализ.

    Abstract: Алгоритмы машинного обучения можно рассматривать как стохастические преобразования (или каналы, на теоретико-информационном языке), которые сопоставляют данные обучения с гипотезами. Следуя классической статье Буске и Элиссеффа, мы говорим, что такой алгоритм является стабильным, если его результат не слишком сильно зависит от какого-либо отдельного обучающего примера.Поскольку стабильность тесно связана с возможностями обобщения алгоритмов обучения, получение точных количественных оценок систематической ошибки обобщения алгоритмов машинного обучения с точки зрения их свойств устойчивости представляет теоретический и практический интерес. В этом выступлении, основанном на совместной работе с Аолином Сю и Сашей Рахлиным, я рассмотрю несколько теоретико-информационных мер алгоритмической стабильности, основанных на взаимной информации и стирании взаимной информации, и проиллюстрирую их использование для определения верхней границы смещения обобщения алгоритмов обучения

    12:00 — 13:30 Обед
    13:30 — 14:00 Том Гур Название: Квантовое знание нуля через местные коды
    Аннотация: Основополагающая работа Бен-Ор и др.(STOC 1988) показывает, что нулевое знание может быть достигнуто безоговорочно, если сделать физическое предположение, что пространственно изолированные доказывающие играют независимые стратегии.
    В этом выступлении мы обсудим новые методы, включающие локально проверяемые / исправляемые коды, которые позволяют нам усилить вышеупомянутый результат, чтобы он сохранялся даже в свете квантовой механики, которая говорит нам, что пространственно изолированные программы доказательства могут реализовать нелокальные коррелированные стратегии, разделяя квантовое запутанное состояние. Эти методы включают структурные результаты, касающиеся сумм субкубов кода Рида-Мюллера.
    Мы обеспечиваем первую конструкцию системы доказательства с нулевым разглашением, которая устойчива против квантово запутанных доказывающих. Попутно мы представляем структуру, которая использует возможность локального тестирования, чтобы «поднять» классические протоколы до квантовых протоколов в стиле черного ящика.
    Доклад является самодостаточным и не предполагает каких-либо предварительных требований к количеству или сложности. n, таких что для любого подпространства U ограниченного размера , образ U под всеми картами, т.е.е., A_1 (U) +… + A_d (U), имеет размерность больше U на постоянный коэффициент. Стандартное применение вероятностного метода демонстрирует, что расширители размерности с постоянным d существуют, и основная проблема заключается в получении явной конструкции. Мы обеспечиваем явную конструкцию расширителя размерности над конечными полями линейного размера. Более того, наша конструкция без потерь в том смысле, что коэффициент расширения равен (1- \ epsilon) d. Наш подход критически использует конструкции подпространств и основан на недавних конструкциях кодируемых списком рангово-метрических кодов.

    Совместная работа с Венкатом Гурусвами и Чаопинг Син.

    Слайды

    14:30 — 15:30 Перерыв
    15:30 — 16:30 Открытая проблемная сессия

    Среда, 11 апреля

    Время Динамик Заголовок / Аннотация
    9:00 — 9:30 Завтрак
    9:30 — 10:00 Амирбехшад Шахрасби Заголовок: Строки синхронизации
    Аннотация: В докладе будет представлено введение в строки синхронизации, которые обеспечивают новый способ эффективного уменьшения ошибок синхронизации, таких как вставки и удаления, до гораздо более простых и лучше понимаемых ошибок Хэмминга.Строки синхронизации имеют множество применений. Доклад будет посвящен использованию строк синхронизации как новому способу создания эффективных блочных кодов исправления ошибок для вставок и удалений. В частности, коды, которые приближаются к границе синглтона, т. Е. Для любого 0 0 эти коды достигают скорости 1 — delta — eps, имея при этом возможность эффективного декодирования из дельта-части вставок и удалений. Также будут кратко обсуждены дальнейшие применения строк синхронизации, включая общий метод моделирования каналов искажения символов по любому заданному каналу вставки-удаления, эффективную и почти оптимальную схему кодирования для интерактивной связи по каналам вставки-удаления и декодируемые списком вставки. коды удаления.Этот доклад основан на совместной работе с Бернхардом Хёплером. Слайды
    10:00 — 10:30 Махди Черагчи Заголовок. Верхние границы пропускной способности для каналов типа удаления

    Аннотация. Мы разрабатываем систематический подход, основанный на выпуклом программировании и реальном анализе, для получения верхних границ пропускной способности двоичного канала удаления и, в более общем плане, каналов с i.i.d. вставки и удаления.Помимо классического канала удаления, мы уделяем особое внимание каналу пуассоновских повторов, введенному Митценмахером и Дринеей (IEEE Transactions on Information Theory, 2006). Наша структура может быть применена для получения верхних границ пропускной способности для любого распределения повторений (удаление и каналы с пуассоновскими повторами, соответствующие частным случаям распределений Бернулли и Пуассона). Наши методы существенно сокращают задачу доказательства верхних границ пропускной способности до максимизации одномерной, действительной и часто вогнутой функции на ограниченном интервале.Соответствующая одномерная функция тщательно разработана в соответствии с лежащим в основе распределением повторений, и выбор варьируется в зависимости от желаемой силы верхних границ, а также желаемой простоты функции (например, быть только эффективно вычисляемой по сравнению с наличием явной замкнутой формы выражение в терминах элементарных или общих специальных функций). Среди наших результатов мы показываем следующее:

    1. Пропускная способность двоичного канала удаления с вероятностью удаления $ d $ не превышает $ (1-d) \ log \ varphi $ для $ d \ geq 1/2 $, и, в предположении, что функция емкости выпуклая, не превосходит $ 1-d \ log (4 / \ varphi) $ для $ d <1/2 $, где $ \ varphi = (1+ \ sqrt {5}) / 2 $ это золотое сечение.Это первая нетривиальная верхняя оценка емкости для любого значения $ d $ за пределами предельного случая $ d \ to 0 $, которая полностью явна и доказана без помощи компьютера.

    2. Мы выводим первый набор верхних границ пропускной способности для канала с повторением Пуассона. Наши результаты раскрывают дальнейшие поразительные связи между этим каналом и каналом удаления и предполагают, что несколько противоречит интуиции, что канал с повторением Пуассона на самом деле аналитически проще канала удаления и может иметь ключевое значение для полного понимания канала удаления. .

    3. Мы выводим несколько новых верхних границ пропускной способности канала удаления. Все верхние границы являются максимумами эффективно вычислимых и вогнутых одномерных вещественных функций в ограниченной области. В свою очередь, мы оцениваем эти функции сверху с помощью явных элементарных и стандартных специальных функций, максимумы которых могут быть найдены еще более эффективно (а иногда и аналитически, например, для $ d = 1/2 $).

    Попутно мы разрабатываем несколько новых методов, потенциально представляющих независимый интерес.

    (на основе https://arxiv.org/abs/1711.01630) Слайды
    10:30 — 11:10 Перерыв
    11:10 — 12:00 Юваль Перес Заголовок: Итерированное несмещение по фон-Нейману и реконструкция трассировки для канала удаления

    Аннотация: В первой части доклада я опишу связи между эффективным методом несмещения с 1992 года (итерированное несмещение по фон Нейману) и полярными кодами.Во второй части я рассмотрю проблему восстановления трассировки: предположим, что неизвестная строка $ x $ из $ n $ битов наблюдается через канал удаления; сколько независимых выходов (трасс) этого канала нужно, чтобы с большой вероятностью восстановить $ x $? Наилучшая известная нижняя оценка линейна по $ n $. В настоящее время наилучшая верхняя оценка экспоненциальна в кубическом корне из $ n $, что доказано с Федором Назаровым, STOC 2017 (аналогичные результаты были независимо получены Де, О’Доннеллом и Серведио).Эта верхняя граница точна для тестов, в которых используются только линейные комбинации выходных данных. Если строка $ x $ случайна, мы показываем, что достаточно субполиномиального количества следов, сравнивая со случайным блужданием. Совместные работы с Алексом Чжаем (FOCS 2017) и с Ниной Холден и Робин Пемантл, препринт (2017).

    Слайды

    12:00 — 13:30 Обед
    13:30 — 14:00 Ицхак Тамо Заголовок: Обнаружение и исправление ошибок в кодах над графами
    Аннотация: Пусть G — граф на n вершинах, а C — код (n, k, d) в алфавите X.Предположим, что в вершине i хранится символ c_i, где вектор сохраненных символов (c_1,…, c_n) образует кодовое слово кода C. Мы предполагаем, что две вершины могут взаимодействовать, если существует канал связи (ребро), соединяющий их. В этом докладе мы рассмотрим коммуникационную сложность обнаружения ошибок и исправления информации, хранящейся по вершинам графа. Для обнаружения ошибок мы получаем общие нижние оценки сложности связи как функции от n, k, d, | X |, которые являются точными для некоторых графиков и кодов.Для исправления ошибок, основываясь на работе Алона, Ефременко и Судакова, мы разрабатываем протокол, который может эффективно исправлять одиночную ошибку ввода для повторяющихся кодов. В заключение приведем несколько интересных задач для дальнейшего исследования.
    Совместная работа с Chong Shangguan
    14:00 — 14:30 Арья Мазумдар Название: Открытые задачи в локально восстанавливаемых кодах
    Аннотация: Локально восстанавливаемые коды (LRC) в последнее время стали предметом большого исследовательского интереса из-за их теоретической привлекательности и применения в распределенных системах хранения.В LRC любая координата кодового слова может быть восстановлена ​​путем доступа только к нескольким другим координатам. В этом выступлении мы описываем три аспекта LRC и некоторые открытые проблемы. А именно, мы изучаем компромисс между скоростью и расстоянием для LRC, проблему несвязанных ремонтных групп и емкость LRC.
    14:30 — 15:15 Перерыв
    15:15 — 15:45 Санкирт Рао Карингула Название: Число независимости графа многогранника Биркгофа и приложения к максимально восстанавливаемым кодам.2 и $ nlog n $. Мы улучшаем обе оценки и показываем, что $ d $ линейно по $ n $. Верхняя граница — это рекурсивная конструкция, которая превосходит случайную конструкцию. Для оценки снизу следует сначала связать проблему с числом независимости графа многогранника Биркгофа, а затем дать для нее точные оценки, используя теорию представлений симметрической группы.

    Слайды

    15:45 — 16:15 Шивакантх Гопи Заголовок : Максимально восстанавливаемые коды локальной реконструкции

    Аннотация: Защита огромных объемов данных, хранящихся в облаке, от сбоев сервера привела к переходу распределенных систем хранения на схемы, основанные на кодировании со стиранием.Коды местной реконструкции (LRC) стали предпочтительными кодами для этих приложений. Они обеспечивают сверхбыстрое восстановление в типичном случае небольшого количества сбоев, считывая только небольшое количество исправных серверов (так называемое «местоположение»), при этом защищая данные от маловероятного события большого количества сбоев. У них есть много хороших свойств простой репликации данных, при этом они намного более эффективны при хранении и устойчивы к сбоям. Максимально восстанавливаемые LRC (MR LRC) теоретически являются наиболее оптимальными LRC с точки зрения информации; они могут восстановиться после любого возможного сценария сбоя для данной эффективности хранения и местоположения.

    MR LRC уже были развернуты в системах хранения Microsoft, превзойдя традиционные системы кодирования со стиранием. Создание таких кодов над небольшими конечными полями имеет решающее значение для приложений. К сожалению, мы далеки от понимания минимального размера поля, необходимого для этих кодов. d с 2d + 2k точками для k = 1,2,3,7,23.d: полномерные симплексы с вершинами на единичной сфере, так что только два возможных угла встречаются между векторами в различных симплексах.
    В этом докладе я кратко представлю проблемы квантовой теории информации, которые привели к возникновению сложных версий этих вопросов. Я расскажу о связях с ассоциативными схемами, теорией кодирования и конечной геометрией, а также подведу итоги недавней работы моего ученика Брайана Кодалена. Слайды
    10:30 — 11:10 Перерыв
    11:10 — 12:00 Эммануэль Аббе Название: Стохастическая блочная модель: где мы находимся
    Аннотация: В докладе рассматриваются некоторые недавние разработки в области стохастической блочной модели, начиная с случая двух сообществ и распространяясь на несколько сообществ.Мы рассмотрим различные требования к восстановлению, фазовые переходы, алгоритмы и информационно-вычислительный пробел. Если позволит время, будут обсуждаться геометрические блочные модели и открытые проблемы.
    12:00 — 13:30 Обед
    13:30 — 14:00 Ольгица Миленкович Название: Повышение популярности данных в распределенных системах хранения с помощью систем MinMax Steiner
    Это совместная работа с Чарльзом Колборном и Хоанг Дау.
    14:00 — 14:30 Симеон Болл Заголовок: О кодах с разделением на максимальное расстояние

    Аннотация: Блочный код C длины n, минимальное расстояние d по алфавиту с q символами, удовлетворяет, jCj 6 qn? D + 1; которая известна как граница Синглтона. Блочный код, достигающий этой границы, известен как код с разделением на максимальное расстояние или просто код MDS. Дуга S в Fkq — это подмножество векторов, обладающее тем свойством, что каждое подмножество размера k в S является набором линейно независимых векторов.Эквивалентно, дуга — это подмножество точек PG (k? 1; q), (k? 1) -мерного проективного пространства над Fq, для которого каждое подмножество из k точек охватывает все пространство. Если C является k-мерным линейным MDS-кодом над Fq, то столбцы порождающей матрицы для C являются дугой в Fkq и наоборот. Классическим примером линейного MDS-кода является код Рида-Соломона, который является кодом оценки всех многочленов степени не выше k? 1 над Fq. Как дуга, код Рида-Соломона является нормальной рациональной кривой в PG (k? 1; q).Тривиальная верхняя граница длины n k-мерного линейного MDS-кода над Fq равна n 6 q + k? 1: (дважды расширенный) код Рида-Соломона имеет длину q + 1. Двойственным к k-мерному линейному MDS-коду является (n? K) -мерный линейный MDS-код, поэтому мы можем предположить, что k 6 1 2n и поэтому k 6 q? 1.
    Гипотеза MDS утверждает, что если 4 6 k 6 q? 2, то код MDS имеет длину не более q + 1. Другими словами, нет лучших линейных кодов MDS, чем коды Рида-Соломона.
    В 2012 г. гипотеза MDS была подтверждена для простого q.В этом докладе я расскажу о различных достижениях с тех пор и подчеркну отсутствие примеров известных кодов MDS длиной более k + 1 2q.

    Слайды

    14:30 — 15:30 Перерыв
    15:30 — 16:30 Rump Session

    Пятница, 13 апреля

    Время Динамик Заголовок / Аннотация
    9:00 — 9:30 Завтрак
    9:30 — 10:00 мин. Название: кодов MDS с оптимальной полосой пропускания для восстановления
    Аннотация: Коды MDS широко используются в распределенных системах хранения для защиты данных от сбоев узлов, где каждый узел хранения хранит одну координату кодового слова.В случае сбоя (стирания) узла отказавший (стертый) узел подключается к функциональным узлам и загружает определенный объем данных для самовосстановления. Пропускная способность восстановления — это наименьший объем данных, необходимый для восстановления отказавшего узла (ов). В этом докладе я представлю несколько простых конструкций кодов MDS с оптимальной полосой пропускания восстановления. Слайды
    10:00 — 10:30 Анкит Сингх Рават Название: MDS-коды с небольшой субпакетизацией и почти оптимальной полосой пропускания для восстановления
    Abstract: регенерирующие коды с минимальной памятью (MSR) образуют специальный подкласс кодов с максимальным разделением на расстояние (MDS), предоставляя механизмы для точной регенерации одного кодового блока путем загрузки минимального количества информации из оставшихся кодовых блоков.В результате коды MSR находят применение в распределенных системах хранения, чтобы гарантировать ремонт узлов с оптимальной полосой пропускания ремонта. Однако конструкции кодов MSR требуют больших уровней субпакетирования, что ограничивает их применимость на практике. В этом выступлении я представлю общий подход к построению кодов MDS, которые значительно снижают требуемый уровень подпакетизации за счет чуть более высокой полосы пропускания восстановления по сравнению с кодами MSR.
    10:30 — 11:10 Перерыв
    11:10 — 12:00 Хамед Хассани Название: Неасимптотический анализ канальных кодов и его практическое значение
    Аннотация: Начиная с эпохальной статьи Шеннона 1948 года, теория кодирования сосредоточилась на достижении пропускной способности в асимптотическом смысле: разработка кодов низкой сложности, которые становятся надежными со скоростью, приближающейся к емкость в пределах большой длины блока.За семь десятилетий развития теории кодирования мы стали свидетелями множества замечательных конструкций кода. Сегодня у нас есть два семейства кодов низкой сложности, которые могут асимптотически обеспечивать пропускную способность для широкого диапазона каналов: полярные коды и пространственно связанные коды.
    В этой беседе я рассмотрю практически важный вопрос, который возник в последние годы как новый серьезный вызов теории кодирования: проектировать коды, оптимальные в неасимптотическом смысле (на коротких отрезках).Я объясню, почему производительность современного дизайна кода неудовлетворительна в отношении этой проблемы. Затем я расскажу о новых многообещающих способах улучшения существующих кодов, а также о новых парадигмах кодирования для решения этой проблемы.
    12:00 — 13:30 Обед
    13:30 — 14:00 Нати Линиал Название: О весовом распределении случайных линейных кодов
    Аннотация: Случайные линейные коды играют важную роль в нескольких областях информатики.Тем не менее, похоже, что об их свойствах известно немногое. В этой работе мы исследуем их весовое распределение — один из наиболее информативных наборов параметров кода. Это совместная работа с моим аспирантом Джонатаном Мошеффом.
    14:00 — 14:30 Бернхард Хёуплер Заголовок: Оптимальный обмен документами и новые коды для небольшого количества вставок и удалений

    Abstract: Этот доклад дает протокол обмена документами с оптимальным обменом данными и эффективную и близкую к оптимальной дерандомизацию, которая также подразумевает новые коды для небольшого числа вставок и удалений.

    Наша схема рандомизированного хеширования берет любой n-битный файл F и вычисляет O (k log n / k) -битную сводку, из которой можно восстановить F, учитывая связанный файл F ‘с расстоянием редактирования ED (F, F’)

    14:30 — 15:30 Александр Барг Название: Решетки с экспоненциально большими числами поцелуев (по статье Сержа Владауца)
    Аннотация: Серж Владац недавно построил решетки со свойством, описанным в заголовке (см. ArXiv: 1802.00886). Конструкция Владацца основана на более ранней конструкции двоичных кодов с экспоненциально большим числом кодовых слов наименьшего веса, которая, в свою очередь, опиралась на результаты о весовых спектрах алгебро-геометрических кодов.Мы объясняем его подход и описываем семейства кодов AG, использованных для достижения нескольких версий его результата.

    Inderscience Publishers — связывающие научные круги, бизнес и промышленность посредством исследований

    Улучшенные отчеты о цитировании Clarivate и импакт-факторы для журналов Inderscience

    16 июля 2021 г.

    Редакция

    Inderscience рада сообщить, что журнал Clarivate Analytics сообщает о цитировании журнала за 2021 год. раскрыли достижения в области импакт-факторов для многих журналов Inderscience, включая European Journal of Industrial Engineering, European Journal of International Management, International Journal of Bio-Inspired Computing, International Journal of Exergy, International Journal of Global Warming, International Journal of Mobile Communications, Международный журнал технологий нефти, газа и угля, Международный журнал судоходства и транспортной логистики, Международный журнал исследований поверхности и инженерии, Международный журнал управления технологиями, Международный журнал веб- и сетевых служб и Progress in Compu Национальная гидродинамика.

    Редакция хотела бы поздравить и поблагодарить всех участвующих редакторов, членов правления, авторов и рецензентов и рада видеть, что их усилия были вознаграждены в этих последних отчетах о цитировании.

    Европейский журнал международного менеджмента отмечает достижения в области индексации

    29 июня, 2021 г.

    Мы рады сообщить, что Европейский журнал международного менеджмента недавно улучшил свои показатели индексации по нескольким направлениям, переместившись в рейтинг 2 в рейтинге. Chartered ABS Academic Journals Guide, улучшенный рейтинг Scopus CiteScore 3.7 (с 2,7), а индекс Scimago H подскочил до 25 (с 22). Главный редактор и заместитель главного редактора EJIM , проф. Илан Алон и проф. Влодзимеж, благодарят свою редакцию, старших редакторов, редакционный и рецензионный совет, рецензентов и авторов за помощь журналу в достижении столь значительных успехов.

    Член правления Inderscience профессор Мохан Мунасингх выиграл премию Blue Planet

    17 июня 2021 г.

    Inderscience рада сообщить, что профессор Мохан Мунасингхе, член редакционной коллегии Международного журнала глобальных экологических проблем и Международного журнала глобальных Warming была удостоена премии Blue Planet 2021 года.В этом году отмечается 30-я присуждение премии Blue Planet Prize, международной экологической премии, спонсируемой фондом Asahi Glass Foundation под председательством Такуя Шимамура. Ежегодно Фонд выбирает двух победителей — физических лиц или организации, которые внесли значительный вклад в решение глобальных экологических проблем.

    Проф. Мунасингхе сделал следующее заявление:

    «Я глубоко признателен и для меня большая честь получить Премию Голубая планета 2021 года, главную глобальную награду за экологическую устойчивость, символизирующую выдающуюся приверженность японского фонда Asahi Glass Foundation лучшему будущему. .Я также в долгу перед многими, кто внесли щедрый вклад в мое интеллектуальное развитие и эмоциональный интеллект, включая учителей, наставников, коллег, семью и друзей. Социальные связи были неоценимы, чтобы пережить давление COVID-19.

    Приятно узнать, что комитет по присуждению награды особо отметил несколько ключевых концепций, которые я разработал, и их практическое применение во всем мире в течение почти пяти десятилетий, включая концепцию устойчивого развития, треугольник устойчивого развития (экономика, окружающая среда, общество), сбалансированный, инклюзивный зеленый рост. (BIGG) и Цели потребления тысячелетия (MCG).

    Мои исследовательские интересы расширились от базовых дисциплин, таких как инженерия, физика и экономика, до прикладных секторов, таких как энергия, вода, транспорт, ИКТ и экологические ресурсы, и, наконец, до многопрофильных тем, таких как бедность, бедствия, изменение климата и устойчивое развитие. Этот эклектичный опыт помог мне разработать Sustainomics как интегративную междисциплинарную методологию. Опираясь на свою прошлую работу и глобальную платформу, предоставленную престижной премией Blue Planet Prize, я буду продолжать свои скромные усилия, чтобы сделать нашу планету более устойчивой для всех.»

    Редакция

    Inderscience искренне поздравляет профессора Мунасингхе с этим выдающимся и значительным достижением.

    Международный журнал устойчивого управления сельским хозяйством и информатики, индексируемый Clarivate Analytics ‘Emerging Sources Citation Index

    22 мая 2021 г.

    Inderscience is рад сообщить, что Международный журнал устойчивого управления сельским хозяйством и информатики был проиндексирован Clarivate Analytics ‘Emerging Sources Citation Index.

    Профессор Бэзил Манос, главный редактор журнала, говорит: «Попадание IJSAMI в Индекс цитирования новых источников — результат наших настойчивых и методичных усилий по обеспечению высочайшего качества статей, привлечению компетентных рецензентов и быстрый обмен электронной почтой с нашими авторами и рецензентами. Я очень рад и взволнован этим признанием нашей работы, и я по-прежнему привержен обеспечению международного научного сообщества журналом высочайшего качества ».

    International Journal of Hydromechatronics проиндексирован Clarivate Analytics ‘Emerging Sources Citation Index

    20 мая 2021 г.

    Inderscience рада сообщить, что Международный журнал гидромехатроники был проиндексирован Clarivate Analytics’ Emerging Sources Citation Index.

    Проф. Иминь Шао, главный редактор журнала, говорит: «Я очень рад, что IJHM был включен в Индекс цитирования новых источников. Это признание академических достижений и редакционной работы журнала. Я бы хотел хотел бы выразить нашу искреннюю благодарность всем, кто внес свой вклад в этот журнал.Мы продолжим придерживаться нашей политики публикации и публиковать высококачественные статьи для содействия академическому обмену и развитию в области гидроэнергетики и электромеханического управления.»

    Теория информации и кодирование

    Основные темы

    • Представление информации: декорреляционное кодирование и энтропийное кодирование.
    • Информационная безопасность: криптографическое кодирование.
    • Коррекция информации: теория канального кодирования и коды с исправлением ошибок.

    Цели

    По окончании этого учебного раздела студент может:

    1 Учитывая результаты обучения по программе «Магистр компьютерных наук и инженерии», этот курс способствует развитию, приобретению и оценке следующих результатов обучения:
    • ИНФОРМАЦИЯ1.1-3
    • ИНФО2.2
    • ИНФОРМАЦИЯ 5.2
    • ИНФОРМАЦИЯ 6.4
    Учитывая результаты обучения по программе «Магистр [120] в области компьютерных наук», этот курс способствует развитию, усвоению и оценке следующих результатов обучения:
    • SINF1.M1
    • SINF2.2
    • SINF5.2
    • SINF6.4
    Студенты, успешно завершившие этот курс, смогут:
    • объяснять понятия, методы и результаты, которые используются при анализе и проектировании систем представления, защиты и исправления информации.
    • представить не только общие результаты, определяющие возможности, предлагаемые теорией информации, но и эффективные методы сжатия, защиты и исправления.
    • предоставить некоторые средства проектирования для кодирования мультимедийной (изображения, звука, данных) информации.

    Содержание

    • Основные понятия теории информации; взаимная информация и энтропия.
    • Кодирование дискретного источника кодами фиксированной длины и кодами переменной длины.
    • Декорреляционное кодирование и понятия выигрыша от кодирования.
    • Основные понятия криптологии; системы криптографического кодирования с секретным и открытым ключом.
    • Дискретный канал без памяти; понятие емкости; Теорема кодирования канала с шумом.
    • Общая теория блочного кодирования; роль минимального расстояния.
    • Линейные коды: образующая матрица и матрица проверки на четность; расшифровка синдрома.
    • Изучение некоторых классов линейных блочных кодов: циклических кодов и кодов Рида-Соломона.
    • Введение в сверточные коды.

    Методы обучения

    Курс состоит из магистральных курсов, а также упражнений для изучения различных аспектов теории.

    Методы оценки

    Письменный экзамен по теории и упражнениям.Экзамен можно разделить на закрытые и открытые.

    Дополнительная информация

    Справочная информация:
    • LFSAB1402: серьезные базовые знания в области информатики
    • LFSAB1103: твердые базовые знания по математике

    Интернет-ресурсы

    Moodle
    https://moodleucl.uclouvain.be/course/view.php?id=5483

    Библиография

    • Р.Г. Галлагер, «Теория информации и надежная коммуникация», Джон Вили, 1968.
    • Ф.Дж. Мак-Вильямс и Н.Дж.А. Слоан, «Теория кодов, исправляющих ошибки», Северная Голландия, 1977.

    IT1251 МЕТОДЫ КОДИРОВАНИЯ ИНФОРМАЦИИ Программа

    IT1251 МЕТОДЫ КОДИРОВАНИЯ ИНФОРМАЦИИ 3 0 0 100

    ЦЕЛЬ:
    Ознакомить с фундаментальными концепциями теории информации: уплотнением данных, сжатием данных, передачей данных, обнаружением и исправлением ошибок.

    ЦЕЛИ:
    • Полное понимание кодирования с контролем ошибок.
    • Для понимания кодирования и декодирования потоков цифровых данных.
    • Представить методы генерации этих кодов и методы их декодирования.
    • Иметь подробные знания о методах сжатия и декомпрессии.
    • Ознакомить с концепциями мультимедийной коммуникации.

    БЛОК I ОСНОВЫ ИНФОРМАЦИОННОЙ ЭНТРОПИИ 9
    Неопределенность, информация и энтропия — Теорема кодирования источника — Кодирование Хаффмана — Кодирование Шеннона Фано — Дискретные каналы без памяти — пропускная способность канала — Теорема кодирования канала — Теорема о пропускной способности канала.

    UNIT II DATA AND VOICE CODING 9
    Дифференциальная импульсная кодовая модуляция — Адаптивная дифференциальная импульсная кодовая модуляция — Адаптивное кодирование поддиапазонов — Дельта-модуляция — Адаптивная дельта-модуляция — Кодирование речевого сигнала с низкой скоростью передачи данных (вокодеры, LPC).

    UNIT III ERROR CONTROL CODING 9
    Линейные блочные коды — Синдромное декодирование — Учет минимального расстояния — циклические коды — Генераторный полином — Полином для проверки на четность — Кодер для циклических кодов — вычисление синдрома — Сверточные коды.

    МЕТОДЫ СЖАТИЯ БЛОКА IV 9
    Принципы — Сжатие текста — Статическое кодирование Хаффмана — Динамическое кодирование Хаффмана — Арифметическое кодирование — Сжатие изображений — Формат обмена графикой — Формат файла изображения с тегами — Оцифрованные документы — Введение в стандарты JPEG.

    АУДИО- И ВИДЕОКОДИНГ UNIT V 9
    Кодирование с линейным прогнозированием — LPC с возбуждением кода — Перцепционное кодирование, аудиокодеры MPEG — Аудиокодеры Dolby — Сжатие видео — Принципы — Введение в H.261 и видео стандартами MPEG.

    ИТОГО: 45
    УЧЕБНИКОВ:
    1. Саймон Хейкин, «Системы связи», Джон Уайли и сыновья, 4-е издание, 2001 г.
    2. Фред Холсолл, «Мультимедийные коммуникации, протоколы и стандарты сетей приложений», Pearson Education , Азия 2002; Глав: 3,4,5.

    ССЫЛКИ:
    1. Марк Нельсон, «Книга сжатия данных», публикация BPB 1992.
    2. Уоткинсон Дж. «Сжатие видео и аудио», Focal Press, Лондон, 1995.

    Кодирование для обнаружения и исправления ошибок

    Тема: Кодирование для обнаружения и исправления ошибок Университет Карнеги Меллон 18-849b Надежные встраиваемые системы Весна 1999 г. Автор: Чарльз П. Шелтон

    Аннотация:

    Помехи окружающей среды и физические дефекты среды связи может вызвать случайные битовые ошибки во время передачи данных.Кодирование ошибок — это метод обнаружения и исправления этих ошибок для обеспечения передачи информации неповрежденным от источника до места назначения. Кодирование ошибок используется для обозначения неисправности. терпимые вычисления в компьютерной памяти, магнитных и оптических носителях данных, спутниковая и дальняя космическая связь, сетевая связь, сотовая связь телефонные сети и практически любые другие формы передачи цифровых данных. Кодирование ошибок использует математические формулы для кодирования битов данных в источнике в более длинные битовые слова для передачи.Тогда «кодовое слово» может быть декодируется в месте назначения для получения информации. Дополнительные биты в кодовое слово обеспечивает избыточность, которая, в соответствии с используемой схемой кодирования, будет разрешить получателю использовать процесс декодирования, чтобы определить, среда связи привела к ошибкам и в некоторых случаях исправила их так, чтобы данные не нужно повторно передавать. Выбраны разные схемы кодирования ошибок. в зависимости от типов ожидаемых ошибок, ожидаемые частота ошибок и возможность повторной передачи данных.Быстрее процессоры и более совершенные коммуникационные технологии делают кодирование более сложным схемы, с лучшими возможностями обнаружения и исправления ошибок, возможно для встроенные системы меньшего размера, обеспечивающие более надежную связь. Тем не мение, компромиссы между полосой пропускания и накладными расходами на кодирование, сложностью кодирования и допустимая задержка кодирования между передачами должна учитываться для каждого применение.


    Состав:


    Введение

    Кодирование ошибок — это метод обеспечения надежной передачи цифровых данных и хранение, когда используемый носитель связи имеет недопустимую частоту ошибок по битам (BER) и низкое отношение сигнал / шум (SNR).Кодирование ошибок используется во многих цифровые приложения, такие как компьютерная память, магнитные и оптические хранилища данных СМИ, спутниковая связь и связь в дальнем космосе, сетевая связь и сотовые телефонные сети. Вместо того, чтобы передавать цифровые данные в виде необработанного бита для битовой формы данные кодируются дополнительными битами в источнике. Чем дольше Затем передается «кодовое слово», и получатель может его декодировать, чтобы получить желаемую информацию. Дополнительные биты преобразуют данные в допустимое кодовое слово в схеме кодирования.Пространство допустимых кодовых слов меньше чем пространство возможных битовых строк такой длины, поэтому пункт назначения может распознать недопустимые кодовые слова. На рисунке 1 показан код. пространство слова.

    Если во время передачи появляются ошибки, они, скорее всего, будут обнаружены. во время процесса декодирования в месте назначения, потому что кодовое слово будет преобразован в недопустимую битовую строку. Учитывая передаваемую строку данных длиной k бит, существует 2 k возможных битовых строк, которые данные может быть.Кодирование ошибок предполагает наихудший сценарий, когда информация закодированная может быть любой из этих битовых строк. Следовательно, будет 2 к допустимые кодовые слова. Кодовые слова будут иметь длину n бит, где n> k. Так что просто наличие дополнительных битов при передаче данных устраняет многие из возможных 2 n битовых строк как допустимые кодовые слова.

    Возможно, самый простой пример кодирования ошибок — это добавление бита проверки четности. А битовая строка, которая должна быть передана, имеет один бит, связанный с ней, чтобы создать код слово для передачи.Бит равен 1 или 0 в зависимости от четности. Если нечетное используется четность, бит четности будет добавлен таким образом, чтобы сумма единиц в кодовое слово нечетное. Если используется четность, сумма единиц в коде слово должно быть четным. Это проиллюстрировано в 3-битном примере на Рисунке 2 ниже.

    Здесь мы хотим отправить два бита информации и использовать один бит проверки четности всего для трехбитовых кодовых слов. Данные могут быть четырьмя возможными битами комбинаций, поэтому пространство кодового слова составляет четыре из восьми возможных 3-битных струны.Здесь мы используем нечетную четность. Когда данные передаются с использованием этого схема кодирования, любые битовые строки с четностью будут отклонены, потому что они не являются допустимыми кодовыми словами. Эта простая схема кодирования ограничена, потому что она может обнаруживает только нечетное количество битовых ошибок в исходных данных и не имеет возможности исправления ошибок. Есть много других методов кодирования ошибок. которые обеспечивают лучшую защиту за счет увеличения пропускной способности и сложность.


    Ключевые понятия

    Возможности конкретного кодирования по обнаружению и исправлению ошибок Схема соотносится с ее кодовой скоростью и сложностью.Кодовая скорость — это отношение битов данных к общему количеству битов, переданных в кодовых словах. Высокий код Скорость означает, что информационное содержание высокое, а накладные расходы на кодирование низкие. Однако чем меньше битов используется для избыточности кодирования, тем меньше защита от ошибок. А необходимо найти компромисс между доступностью полосы пропускания и количеством ошибок защита, необходимая для связи.

    Теорема Шеннона

    Методы кодирования ошибок основаны на теории кодирования информации, области разработан на основе работы Клода Шеннона.В 1948 году Шеннон представил теория, которая гласит: учитывая код с кодовой скоростью R, которая меньше, чем пропускная способность канала связи C, код существует, для длины блока n бит, с кодовой скоростью R, которая может передаваться по каналу с произвольной малая вероятность ошибки. Теоретически мы должны быть в состоянии изобрести схема кодирования для конкретного канала связи для любой частоты ошибок, но нет удалось разработать код, удовлетворяющий теореме Шеннона [Wells99].Это указывало бы на то, что еще есть предстоит проделать большую работу по совершенствованию методов кодирования ошибок. Криптография, метод шифрования данных в целях безопасности, а не надежности, также является потомок работы Шеннона.

    Компромиссы

    При выборе схемы кодирования для защиты от ошибок типы ошибок, которые необходимо учитывать, как правило, происходящие на канале связи. Есть два типы ошибок, которые могут возникнуть в канале связи: случайные битовые ошибки и пакетные ошибки.Канал, который обычно имеет случайные битовые ошибки, будет иметь тенденцию имеют изолированные перевороты битов во время передачи данных, и битовые ошибки независимы друг от друга. Канал с пакетными ошибками будет иметь сгущения. битовых ошибок, возникающих во время одной передачи. Коды ошибок были разработан специально для защиты как от случайных битовых ошибок, так и от пакетов ошибки.

    Системы реального времени должны учитывать компромисс между задержкой кодирования и ошибкой защита.Схема кодирования с высокими возможностями исправления ошибок потребует дольше декодировать и будет недетерминированным. Это могло вызвать пропущенный крайний срок и отказ, если часть необходимой информации застряла при декодировании.

    Во встроенных системах кодирование ошибок особенно важно, поскольку может использоваться в критических приложениях и не допускает ошибок. Схемы кодирования становятся все более сложными и вероятностными, что делает реализацию кодеры и декодеры в программном обеспечении привлекательные.Поскольку вычислительная мощность относительно быстрое и дешевое программирование программного обеспечения более осуществимо. Однако программное обеспечение гораздо более подвержен конструктивным дефектам и ошибкам, что делает алгоритм кодирования менее надежный. Усложнение программного обеспечения приводит к увеличению количества ошибок в дизайн и реализация.


    Доступные инструменты, методы и показатели

    Существует два основных типа схем кодирования: линейные блочные коды и сверточные коды. Линейные блочные коды характеризуются сегментацией сообщение на отдельные блоки фиксированной длины и кодирование каждого блока по одному в время для передачи.Сверточные коды кодируют весь поток данных в одно длинное кодовое слово и передавать его по частям.

    Линейные блочные коды

    Линейные блочные коды названы так потому, что каждое кодовое слово в наборе является линейная комбинация набора кодовых слов генератора. Если сообщения k бит long, а кодовые слова имеют длину n бит (где n> k), имеется k линейно независимые кодовые слова длины n, образующие матрицу генератора. Чтобы закодировать любой сообщение из k бит, вы просто умножаете вектор сообщения u на генератор матрица для создания вектора v кодового слова длиной n бит [Lin83].

    Линейные блочные коды очень легко реализовать аппаратно, и поскольку они алгебраически определены, они могут быть декодированы за постоянное время. У них есть очень высокие кодовые скорости, обычно выше 0,95. У них низкие накладные расходы на кодирование, но у них ограниченные возможности исправления ошибок. Они очень полезны в ситуации, когда BER канала относительно низок, полоса пропускания доступность ограничена при передаче, и данные легко повторно передать.

    Один класс линейных блочных кодов, используемых для высокоскоростной компьютерной памяти: Коды SEC / DED (исправление одиночной ошибки / обнаружение двойной ошибки).На высокой скорости память, полоса пропускания ограничена из-за относительно высокой стоимости за бит по сравнению с низкоскоростной памятью вроде дисков [Costello98]. Частота ошибок обычно низкая и, как правило, происходит побайтово, поэтому SEC / DED схема кодирования для каждого байта обеспечивает достаточную защиту от ошибок. Кодирование ошибок в этой ситуации должен быть быстрым, потому что желательна высокая пропускная способность. SEC / DED коды чрезвычайно просты и не вызывают большой задержки кодирования.

    Коды CRC

    Коды

    Cyclic Redundancy Check (CRC) представляют собой специальное подмножество линейных блоков. коды, которые очень популярны в цифровой связи.Коды CRC имеют свойство циклического сдвига; когда любое кодовое слово поворачивается влево или вправо любым количество битовых цифр, результирующая строка по-прежнему является словом в кодовом пространстве [Wells99]. Это свойство делает кодирование и декодирование очень легко и эффективно реализовать с помощью простых регистров сдвига. Главный недостатком использования кодов CRC является то, что они имеют только обнаружение ошибок возможности. Они не могут исправить какие-либо ошибки в данных, обнаруженные на пункт назначения, и данные должны быть переданы снова, чтобы получить сообщение.По этой причине коды CRC обычно используются вместе с другим кодом. что обеспечивает исправление ошибок. Если коды CRC — единственные, которые используются для приложения, необработанный BER канала обычно чрезвычайно низок, а данные не критично по времени. Они хороши для магнитных и оптических накопителей, где возможен простой запрос на повторную передачу для исправления битовых ошибок.

    Сверточные коды

    Сверточные коды обычно сложнее линейных блочных кодов, сложнее в реализации и имеют более низкую кодовую скорость (обычно ниже 0.90), но обладают мощными возможностями исправления ошибок. Они популярны в спутниковых и связь в дальнем космосе, где пропускная способность практически неограничена, но BER намного выше, и повторные передачи невозможны.

    Сверточные коды сложнее декодировать, потому что они закодированы с использованием конечных автоматов, которые имеют пути ветвления для кодирования каждого бита в последовательность данных. Известный процесс декодирования сверточных кодов быстро — это алгоритм Витерби.Алгоритм Витерби — это максимальная вероятность декодер, что означает, что выходное кодовое слово декодирования передачи всегда тот, с наибольшей вероятностью быть правильным словом передается из источника.


    Связь с другими темами

    Кодирование ошибок — это метод достижения отказоустойчивых вычислений, но он также имеет связывает встроенные коммуникации и факторы в проектировании надежных в реальном времени системы.

    • Отказоустойчивые вычисления — Кодирование ошибок помогает переносить сбои, вызванные шумом в канале связи или бит ошибки в памяти или хранилище.
    • Embedded Communications — Кодирование ошибок методы необходимы для надежной цифровой связи в любой сети.
    • Системы реального времени — временные ограничения системы реального времени ограничивают выбор схем кодирования внутри системы и сколько защиты от ошибок можно включить при соблюдении сроков.
    • Надежность программного обеспечения — ошибка реализации коды в программном обеспечении означают, что они должны быть такими же надежными, как и аппаратные реализации.
    • I / O — Преобразование аналоговых сигналов от датчиков в из реального мира в цифровую информацию и передачу этой информации в система управления может вносить ошибки битового уровня, которые может предотвратить кодирование ошибок.

    Выводы

    Следующие идеи являются важными, чтобы вынести из чтения о эта тема:

    • Важными причинами использования кодирования являются обеспечение надежного хранения данных в лицо незначительного повреждения / потери данных и получение возможности обеспечить высокий точный ввод / вывод даже на зашумленных линиях передачи, таких как сотовые телефоны (ошибка кодирование отделяет точность сообщения от аналогового уровня шума).
    • Метод кодирования ошибок для приложения следует выбирать на основе:
    • Типы ошибок, ожидаемых на канале (например, пакетные ошибки или случайные битовая ошибка)
    • Можно ли повторно передать информацию (коды для только обнаружение ошибок или обнаружение и исправление ошибок)
    • Ожидаемая частота ошибок на канале связи (высокая или низкая)
    • Существует несколько компромиссов между эффективностью канала и количеством реализована логика кодирования / декодирования:
    • Схемы кодирования с более высокими возможностями обнаружения и исправления ошибок потребует больше накладных расходов и пропускной способности.Это приводит к снижению информации скорости передачи.
    • Повышенная сложность кодирования для лучшего исправления ошибок приведет к увеличению задержки в источнике и назначении для кодирования и декодирования.
    • Системы реального времени не допускают ошибок, но коды с непостоянными время задержки повлияет на временные графики.
    • Лучшие схемы защиты от ошибок сложнее и реализуются в программном обеспечении. Однако это добавляет сложности и может быть менее надежным, чем аппаратные кодеры и декодеры, потому что программное обеспечение менее зрелое и более сложно проверить его правильность.

    Аннотированный список ссылок

    • [Costello98] Costello, Daniel J., Jr .; Хагенауэр, Иоахим; Имаи, Хидеки; Викер, Стивен Б., «Применение контроля ошибок» Кодирование ». IEEE Transactions of Information Theory , октябрь 1998 г., т. 44, нет. 6, стр. 2531 — 2560.
      В этой статье дается обзор многих приложений кодирования ошибок и теория позади них.
    • [Lin83] Линь Шу; Костелло, Дэниел Дж., Мл., Ошибка Кодирование управления: основы и приложения . Энглвуд Клиффс, Нью-Джерси: Прентис-Холл, 1983.

    • Это исчерпывающая книга по основам теории и применению ошибок. кодирование. Все распространенные схемы кодирования от линейных блочных кодов до циклических кодов и обсуждаются сверточные коды. Это хорошая книга как для справки, так и для обучение.
    • [Wells99] Wells, Ричард Б., Прикладное кодирование и Информационная теория для инженеров .Река Аппер Сэдл, Нью-Джерси: Прентис-Холл, 1999.

    • В этой книге больше внимания уделяется кодированию приложений и реализаций. с меньшим вниманием к теории кодирования. Это хорошее стартовое руководство для инженеров не обучен на уровне математики, необходимом для большинства схем кодирования.

    Указатель других тем

    Домашняя страница

    .

    Добавить комментарий

    Ваш адрес email не будет опубликован. Обязательные поля помечены *