Информация как способ снятия неопределенности

3.2. Неопределенность, количество информации и энтропия

Основоположник теории информации Клод Шеннон определил информацию, как снятую неопределенность. Точнее сказать, получение информации — необходимое условие для снятия неопределенности. Неопределенность возникает в ситуации выбора. Задача, которая решается в ходе снятия неопределенности – уменьшение количества рассматриваемых вариантов (уменьшение разнообразия), и в итоге выбор одного соответствующего ситуации варианта из числа возможных. Снятие неопределенности дает возможность принимать обоснованные решения и действовать. В этом управляющая роль информации.

Представьте, что вы зашли в магазин и попросили продать вам жевательную резинку. Продавщица, у которой, скажем, 16 сортов жевательной резинки, находится в состоянии неопределенности. Она не может выполнить вашу просьбу без получения дополнительной информации. Если вы уточнили, скажем, — « Orbit », и из 16 первоначальных вариантов продавщица рассматривает теперь только 8, вы уменьшили ее неопределенность в два раза (забегая вперед, скажем, что уменьшение неопределенности вдвое соответствует получению 1 бита информации). Если вы, не мудрствуя лукаво, просто указали пальцем на витрине, — «вот эту!», то неопределенность была снята полностью. Опять же, забегая вперед, скажем, что этим жестом в данном примере вы сообщили продавщице 4 бита информации.

Ситуация максимальной неопределенности предполагает наличие нескольких равновероятных альтернатив (вариантов), т.е. ни один из вариантов не является более предпочтительным. Причем, чем больше равновероятных вариантов наблюдается, тем больше неопределенность, тем сложнее сделать однозначный выбор и тем больше информации требуется для этого получить. Для N вариантов эта ситуация описывается следующим распределением вероятностей: <1>.

Минимальная неопределенность равна 0, т.е. эта ситуация полной определенности, означающая что выбор сделан, и вся необходимая информация получена. Распределение вероятностей для ситуации полной определенности выглядит так: .

Величина, характеризующая количество неопределенности в теории информации обозначается символом H и имеет название энтропия, точнее информационная энтропия.

Энтропия ( H )мера неопределенности, выраженная в битах. Так же энтропию можно рассматривать как меру равномерности распределения случайной величины.

Рис. 8. Поведение энтропии
для случая двух альтернатив.

На рисунке 8. показано поведение энтропии для случая двух альтернатив, при изменении соотношения их вероятностей ( p , (1- p )).

Максимального значения энтропия достигает в данном случае тогда, когда обе вероятности равны между собой и равны ½, нулевое значение энтропии соответствует случаям ( p 0=0, p 1=1) и ( p 0=1, p 1=0).

Количество информации I и энтропия H характеризуют одну и ту же ситуацию, но с качественно противоположенных сторон. I – это количество информации, которое требуется для снятия неопределенности H . По определению Леона Бриллюэна информация есть отрицательная энтропия (негэнтропия).

Рис. 9. Связь между энтропией
и количеством информации.

Когда неопределенность снята полностью, количество полученной информации I равно изначально существовавшей неопределенности H .

При частичном снятии неопределенности, полученное количество информации и оставшаяся неснятой неопределенность составляют в сумме исходную неопределенность. Ht + It = H .

По этой причине, формулы, которые будут представлены ниже для расчета энтропии H являются и формулами для расчета количества информации I , т.е. когда речь идет о полном снятии неопределенности, H в них может заменяться на I .

При копировании материалов обратная ссылка обязательна

Источник

Информация как уменьшение неопределённости сведений об объектах, явлениях и процессах

Возвращаясь к пониманию информации как сведений об объектах, явлениях и процессах материального мира, необходимо отметить, что эти сведения несут в себе разную информацию, в зависимости от того, кто и в каких условиях, в каком состоянии получает эти сведения. Информацией называется только та часть, та составляющая сведений, которая уменьшает имеющуюся у получателя сведений неопределённость, т.е. неполноту ранее полученных сведений и мотивацию на их дополнение, обновление. В этом смысле неопределённость – это состояние субъекта, воспринимающего информацию. Следовательно, в человеческом обществе и вообще в живой природе информацию можно понимать и как уменьшение неопределённости сведений об объектах, явлениях и процессах материального мира. К информации в неживой природе такое понимание информации неприменимо.

В человеческом общении переданные сведения нередко оцениваются как информация только при достаточно высоком уровне неопределённости. Например, в реальном человеческом общении нередко после передачи кому-то сведений тот или иной индивид заявляет, что никакой информации или новой информации он не получил. Это означает, что переданные ему сведения не снизили имеющуюся у него неопределённость, либо этой неопределённости просто не было. Так бывает в процессе обучения, например. Если попытаться передать сведения о математическом понятии интегрирования первокласснику, который только научился считать в пределах первого десятка чисел, он ничего не поймёт и потому никакой информации не получит. В старших классах средней школы начала интегрирования уже преподают, старшеклассники получают некоторые объёмы информации об этом, ограниченные их предшествующими объёмами знаний, учатся вычислять несложные интегралы. Больше всего информации об интегрировании получают студенты математических специальностей в курсах математического анализа: они подготовлены к полному восприятию всей информации, которая заключена в соответствующих сведениях, передаваемых им преподавателями. Сведения от преподавателей по этому предмету снимают имеющуюся у студентов неопределённость, поэтому студентам эти сведения несут достаточно большие объёмы информации. Но для самих этих преподавателей сведения об интегрировании уже снова не несут никакой информации, потому что не снижают неопределённости уже имеющихся у них сведений – они уже всё об этом знают.

В примерах с зеркалом или с фотографиями человек получает больше информации, когда разглядывает соответствующие изображения, отмечая сравнительно мелкие их детали и особенности. Пока эти детали не были проанализированы – оставалась неопределённость сведений о них. После анализа эта неопределённость исчезает, снимается, и за счёт этого человек получает больше информации об отражённом или сфотографированном объекте.

Другим примером снятия неопределённости сведений могут быть следы зайца на снегу. Непрофессионал может их вообще не заметить и не получить никакой информации о зайце, потому что для такого непрофессионала нет неопределённости в сведениях о зайце: они его не интересуют, он в лесу занят другим. Но профессионал-охотник по следам зайца сможет буквально прочитать информацию обо всей его жизни, помогут выследить такого зайца, и, зная его повадки, не спугнуть. Для получения такой информации профессионал использует мелкие детали следов и детали их расположения на снегу, для него эти сведения снимают неопределённость ранее имевшихся сведений о зайце и позволяют продолжить охоту на него. Получается, что один и тот же материальный объект, в данном случае, следы зайца на снегу, несёт мало информации, когда человек не ищет зайца, и у него нет неопределённости в свойствах заячьих следов, т.е. и снимать нечего, и несёт много информации, когда человек ищет зайца, и у него есть неопределённость сведений о зайце, и эта неопределённость снимается после внимательного рассматривания следов, иначе он не смотрел бы на следы, а искал зайца как-то иначе.

Деятельность психоаналитиков тоже может служить примером снятия неопределённости информации их клиентов о себе. Но психоаналитики не всегда стараются снять эту неопределённость полностью. И тогда их клиенты вынуждены периодически к ним обращаться, потому что проблемы подсознания у них не снимаются полностью, а только на время заглушаются таким образом.

Неопределённость сведений связана с мотивацией человека на восприятие информации. Если неопределённость отсутствует, то такая мотивация, скорее всего, тоже будет отсутствовать, не будет возникать желания получать соответствующие сведения. Но если неопределённость сведений является слишком высокой, то в большинстве случаев у человека тоже не возникнет мотивации воспринимать эти сведения потому, что он будет считать себя неподготовленным к их восприятию. Например, когда неподготовленный специалист получает результаты обработки данных психологического эксперимента, выполненные методом факторного анализа, он, как правило, просто теряется в рядах чисел и в больших таблицах с числовыми данными. Если же такой специалист сможет уменьшить свою неопределённость до необходимости поиска в этой цифровой информации наиболее важных данных для интерпретации результатов факторного анализа, он окажется способным получить ценные для такой интерпретации сведения из отдельных числовых значений и сравнений величин некоторых числовых показателей.

В большинстве случаев, как в этом примере, человек имеет наиболее высокий уровень мотивации на восприятие сведений, когда их неопределённость у него является оптимальной для его уровня знаний, интеллектуальных умений и некоторых особенностей сознания (типа нервной деятельности, характера, направленности личности, коммуникативной компетентности и некоторых других). В частности, в некоторых случаях низкая коммуникативная компетентность приводит к отказу от участия в коммуникации по поводу получения той или иной информации, поскольку человек не уверен в своих возможностях вступать в коммуникацию и вести её. А в условиях отсутствия коммуникации, естественно, не происходит и получения информации.

Следовательно, для наилучшего восприятия сведений их неопределённость у человека должна быть не очень малой и не очень большой, а – средней, оптимальной. Эту закономерность постоянно используют в процессе обучения преподаватели: они формируют мотивацию изучения своих учебных предметов так, чтобы учащиеся или студенты понимали, что некоторая неопределённость сведений по этому предмету у них есть, и эту неопределённость необходимо ликвидировать. Но преподаватели стараются не делать эту неопределённость настолько большой, чтобы у учащихся или студентов не возникало представление о невозможности освоения соответствующего учебного предмета. Его освоение через восприятие новых сведений должно быть с одной стороны посильным, а с другой – создавать субъективное впечатление получения новых, уникальных сведений, иначе интерес к освоению учебного предмета резко падает.

Источник

Информация как снятая неопределенность

Время: 40 минут (продолжительность лекции 25 минут).

Форма организации учебного занятия: лекция.

Образовательные:

  • познакомить с несколькими способами измерения информации (объемный, алгоритмический и вероятностный);
  • продолжить формирование представления о понятиях неопределенность и вероятность;
  • установить связь между количеством информации в сообщении о некотором событии и вероятностью этого события (в приближении равной вероятности и в общем случае);
  • сформировать представление об определении единицы измерения неопределенности — бит.
  • повторить двоичную систему счисления;
  • повторить единицы измерения информации (бит, байт, кбайт и т.д);
  • продолжить формирование понятия “информация”;
  • повторить понятие фундаментальной величины;
  • повторить субъективный и кибернетический подходы к определению информации;
  • рассмотреть выделяемые по функциональному назначению виды информации;
  • повторить понятие информационного процесса;
  • раскрыть роль информационной технологии и вычислительной техники в развитии современного общества;
  • осуществление меж.предметных связей информатики с физикой, биологией и геометрией в процессе рассмотрения фундаментальных понятий этих наук.
  • Воспитательные:

  • продолжить знакомство с вузовскими формами организации учебных занятий;
  • продолжить формирование умения конспектировать лекцию;
  • раскрыть значение накопления фактов и их уточнения при познаваемости явлений;
  • показать, что моделирование и описание выступают как методы изучения фактов при обобщении явлений на разных уровнях;
  • продолжить формировать у учащихся аккуратность при работе с записями в тетради;
  • продолжить воспитывать у ребят уважение друг к другу;
  • продолжить воспитывать у учащихся умение слушать ответ товарища;
  • продолжить воспитывать уважительное отношение к труду;
  • продолжить формировать у учащихся пунктуальность.
  • Развивающие:

  • формирование представление об информации как одном из трех основополагающих понятий науки: веществе, энергии и информации, лежащих в основе строения современной научной картины мира;
  • вычислять количество информации в сообщении о событии с известной вероятностью (в приближении равной вероятности и в общем случае);
  • формирование умения приводить примеры информации и информационных процессов из области человеческой деятельности, живой природы и техники;
  • формирование умения приводить примеры сообщений несущих 1 бит информации;
  • продолжить формирование умения решать задачи;
  • формирование умения решать задачи по нахождению минимального количества бит для кодировки той или иной информации;
  • продолжить формирование умения высказывать умозаключения;
  • продолжить развитие самостоятельности в суждениях и в работе;
  • продолжить формирование умений делать логические заключения на основе имеющихся знаний;
  • продолжить формирование умения работать сосредоточенно;
  • продолжить развивать у учеников память, внимание, логическое мышление.
  • Оборудование: компьютер; проектор + экран.

    Программное обеспечение: Microsoft PowerPoint.

    Дидактический материал: файл презентации – Приложение1.

    Ход учебного занятия

    I. Организационный момент

    Приветствие, установление дисциплины. Объявление темы и плана учебного занятия, а так же его цели для учащихся.

    1. Понятие информации.
    2. Единицы измерения информации.
    3. Как компьютер хранит информацию.
    4. Способы измерения информации.
    5. Виды информации, выделяемые чисто по функциональному назначению.

    II. Подготовка к активному и осознанному изложению нового учебного материала

    Этап постановки доминирующей цели учебного занятия.

    Постановка доминирующей цели урока и организацию учащихся на ее принятие.

    Учитель дает учащимся задание на урок:

    • Законспектировать лекцию.
    • Дать ответы на вопросы:
      Что такое информация?
      Является ли бит минимальной порцией информации или нет?

    III. Усвоение новых знаний

    1. Понятие информации.

    Метод: Беседа. Время: 5 мин.

    Учитель. Ребята, что вы понимаете под словом “информация”?

    Учащийся (1). Слово информация мы обычно понимаем как какое-то сообщение, сведения, которые мы откуда-то получаем.

    Учащийся (2). Информацию помещают в газетах, передают по радио и телевидению.

    Учитель. А как человек воспринимает информацию?

    Учащийся. Человек воспринимает информацию об окружающем мире с помощью органов чувств (зрения, слуха, обоняния, осязания, вкуса).

    Учитель. Действительно, под словом “информация” мы обычно понимаем какое-то сообщение, сведения, которые мы откуда-то получаем. Информацию помещают в газетах, передают по радио и телевидению. Но это — очень узкое понимание. Информация содержится в любом тексте, изображение, звуке, но не только в них. Информация, например, содержится в структуре сложной биологической молекулы. Эта информация позволяет живой клетке производить определенные белки для новых тканей или для уничтожения попавших в организм микробов. Таким образом, информация — это знания, сведения, которыми обладает человек, которые он получает из окружающего мира.

    Такой подход к определению информации называют субъективным.

    Существует, однако, и другой подход — кибернетический. Именно этот подход позволяет создавать машины, работающие с информацией. С этой точки зрения информация — это содержание последовательности символов, сигналов из некоторого алфавита.

    Так что же такое “информация”? Информатика изучает свойства информации, но строгого, единого, и универсального определения этого понятия не дает.

    Такое положение не стоит считать чем-то необычным. Например, в геометрии не дается определения точки, — это понятие является первичным, неопределяемым понятием или, как его называют в науке — фундаментальным.

    Попробуйте привести примеры фундаментальных понятий, с которыми вы знакомились ранее.

    Учащийся (1). В физике понятие электрического заряда является фундаментальным, так как четкого его определения не существует; электрический заряд принято характеризовать перечислением его свойств.

    Учащиеся приводят другие примеры…

    Учитель. Таким образом, информация – это первичное, неопределяемое понятие информатики. А теперь подумаем вот о чем: что человек делает с информацией, то есть со своими знаниями?

    Учащийся (1). Человек хранит информацию в своей памяти или на каких-либо внешних носителях.

    Учащийся (2). Человеку непрерывно приходится заниматься обработкой информации…

    Учащийся (3). Человеку постоянно приходится участвовать в процессе передачи информации.

    Учитель. Таким образом, информацию можно хранить, передавать и обрабатывать.

    2. Единицы измерения информации.

    Метод: Беседа. Время: 8 мин.

    Учитель. Можно ли измерить информацию? Например, как измерить информацию, получаемую при ответе на тот или иной вопрос? Существуют различные определения количества информации. В некотором смысле информация может рассматривается как мера разрешения неопределенности. Рассмотрим несколько примеров.

    Пример №1. Пусть у нас имеется монета, которую мы бросаем на ровную поверхность. С равной вероятностью произойдет одно из двух возможных событий — монета окажется в одном из двух положений: “орел” или “решка”.

    Перед броском существует неопределенность наших знаний (возможны два события), и, как упадет монета, предсказать невозможно. После броска наступает полная определенность, так как мы видим (получаем зрительное сообщение), что монета в данный момент находится в определенном положении. Это сообщение приводит к уменьшению неопределенности наших знаний в два раза.

    Пример №2. Предположим, что мы имеем восемь игральных карт, пронумерованных в возрастающем порядке от 1 до 8. Положим карты на стол и перемешаем их. Я случайным образом вытяну одну из карт. Для вас номер карты будет являться неопределенной величиной. Попробуйте определить ее номер. Вы можете задавать мне вопросы, но я буду отвечать на них только утверждениями “Да” или “Нет”. Постарайтесь выяснить номер карты за наименьшее число вопросов.

    Таким образом, определить номер карты можно было бы, задав всего три вопроса, подразумевающие всего два варианта ответа либо “да”, либо “нет”.

    Для измерения неопределенности системы используется специальная единица, называемая бит. Бит является мерой неопределенности (или информации), связанной с наличием всего двух возможных равновероятных состояний, таких, как, например, “истинно – ложно”, “да – нет” и т.д. Таким образом, если задается вопрос: “У Пети есть черная ручка”, то неопределенность, связанная с цветом ручки, может быть устранена правильным ответом “да” или “нет”. А так как речь идет только о двух возможных ответах, то устраняемая неопределенность равна 1 биту.

    Вернемся к картам. Для определения номера карты потребовалось всего три вопроса, следовательно, узнав ответы на них, вы получили ровно 3 бита информации.

    3. Как компьютер хранит информацию?

    Метод: Объяснение с элементами беседы. Время: 2 мин.

    Учитель. Как же компьютер хранит информацию?

    Учащийся. Информация в компьютере хранится в виде двоичных кодов.

    Учитель. Действительно, память компьютера можно упрощенно представить в виде очень большого количества маленьких переключателей, каждый из которых может находиться в одном из двух состояний. Физически эти состояния могут быть реализованы различными способами: намагничено или не намагничено, высокое или низкое напряжение и т.д. Принято обозначать одно состояние 0, а другое — 1. Каждый такой переключатель и есть — бит.

    Оказывается, что с помощью последовательностей битов можно представить самую разнообразную информацию. Это представление называется двоичным кодированием.

    Предположим, что у нас есть 4 бита. Меняя их состояния, мы можем получить 16 различных комбинаций, которые легко перечислить и перенумеровать. Можно договориться, что данные комбинации соответствуют указанным числам.

    Книжные новинки
    Копилка
    Рабочие программы
    Проекты MS Office
    Презентации
    Открытые уроки
    Экзаменационные билеты
    Элективные курсы
    Бесплатный soft
    Инструкции по ТБ
    Подготовка к олимпиадам по информатике
    Методика подготовки
    «Золотые» алгоритмы
    Простые задачи для начинающих
    Олимпиадные задачи с решениями
    Книги
    Среда программирования
    Обучение программированию на С++
    Справочник по языку Pascal
    Обучение
    Подготовка к ЕГЭ
    Создание сайтов
    Уроки FrontPage
    Уроки Word 2003
    Создание игр на Delphi
    Печатаем вслепую
    0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
    0 0 0 0 1 0 0 1 1 0 1 0 1 1 1 1
    0 0 0 1 0 0 1 1 0 1 0 1 1 0 1 1
    0 0 1 0 0 1 1 0 1 0 0 1 1 1 0 1
    0 1 0 0 0 1 0 0 0 1 1 1 0 1 1 1

    Таким образом, N бит позволяет закодировать 2 N различных чисел.

    На практике используют и более крупные единицы информации, нежели 1 бит. Часто пользуются байтом.1 байт = 8 бит. Для измерения больших количеств информации используют приставки:
    1Кбайт = 1024 байта; 1 Мбайт = 1024 Кбайт = 1024 2 байт = 1048576 байт.

    IV. Изложение материала учителем (лекция)

    4. Способы измерения информации

    Метод: Объяснение. Время: 12 мин.

    Существует несколько способов измерения информации.

    Объемный (технический). Каждый символ языка кодируется определенной последовательностью бит, и затем подсчитывается полное количество бит в сообщении. Смысловое содержание сообщения в этом случае не играет никакой роли. Так, если мы запишем дважды одно и то же сообщение, то информационный объем увеличится вдвое, смысловое же содержание сообщения не изменится. Попытки учесть смысл в определении количества информации приводят к иным результатам и иным способам подсчета количества информации.

    Алгоритмическое измерение информации. Рассмотрим некоторую последовательность из нулей и единиц и постараемся определить, какое количество информации содержится в этой последовательности. Поставим в соответствие этой последовательности алгоритм, с помощью которого мы запишем и передадим данные и инструкции, руководствуясь которыми получатель воспроизведет ту же последовательность. Здесь необходимо сказать о таком понятии как “алгоритмическая сложность”, предложенному А.Н. Колмогоровым в 1965 г. Алгоритмическая сложность некоторой последовательности данных определяется, как минимальная длина вычислительного алгоритма, который мог бы воспроизвести заданную последовательность. Длина алгоритма может быть измерена в тех же битах. Если последовательность периодична, то ее не составит труда существенно сжать.

    Случайные последовательности несжимаемы, и для измерения содержащегося в них количества информации подходит объемный способ измерения. Ценность информации, содержащейся в случайной последовательности цифр, по отношению к получателю этой информации — самая большая, но при одном условии: он должен быть в состоянии извлечь из сообщения что-либо полезное для себя, должен понять сообщение. Практически определить количество информации по способу А.Н. Колмогорова трудно, поскольку этот способ предполагает выбор оптимального способа кодировки, поиск оптимального алгоритма который воспроизвел заданную закодированную последовательность, и определение того, о чем надо предварительно сообщить получателю сообщения для декодирования последнего.

    Вероятностный способ. Предположим, что в результате проведения опыта может наступить одно из N возможных событий. Все события равновероятны, независимы, наступление одного из них исключает наступление других. Неопределенность I результатов эксперимента принято характеризовать логарифмом числа возможных равновероятных исходов:

    I = log2N (формула Хартли)

    После проведения опыта наступившее событие оказывается достоверным, число N становится равным 1. Разность двух неопределенностей до и после проведения опыта — это и есть полученная информация. Если N = 2 (выбор из двух возможностей), то

    I = log22 – log21 = 1 – 0 = 1

    По этой формуле, так же, можно легко определить количество возможных событий, если известно количество информации. Например, если мы получили 4 бита информации, то количество возможных событий составило: N = 2 4 = 16.

    Согласно определению вероятности P = 1/N, следовательно I = – log2P.

    В более общем случае, при вычислении количества информации приходится иметь дело с сообщением об одном из N, но уже не равновероятных событий.

    Количество информации, связанное с осуществлением того или иного k– го события равно:

    Пусть имеется строка текста, содержащая тысячу букв. Буква “о” в тексте встречается примерно 90 раз, буква “р” — 40 раз, буква “ф” — 2 раза, а буква “а” — 200 раз. Найдем среднюю частоту, с которой в рассматриваемом тексте встречается буква “а”: 200/1000 = 0,2. Вероятность P(a) появления буквы “а” в тексте можем считать приблизительно равной 0,2. Аналогично P(р) = 0,04; P(ф) = 0,002 и так далее. Количество информации, переносимой одной буквой: “а” равно Ik = – log20,2; буквой “р” — Ik = – log20,04; “ф” — Ik = – log20,002; “о” — Ik = -log20,09.

    Удобнее в качестве меры количества информации пользоваться не значением Ik,, а средним значением количества информации, приходящейся на одно событие:

    Например, при бросании несимметричной четырехгранной пирамидки вероятности отдельных событий будут равны: P1 = 1/2, P2 = 1/4, P3 = 1/8, P4 = 1/8. Тогда количество информации, которое мы получим после реализации одного из них, можно рассчитать по формуле.

    I = – (1/2 log21/2+1/4 log21/4+1/8 log21/8)[бит] = (1/2+2/4+3/8+3/8)[бит] = 14/8[бит] = 1,75[бит].

    Ошибочным является мнение, согласно которому 1 бит — это минимальная порция информации, своего рода “информационный квант”. Предположим, что бит действительно минимальная (несжимаемая) порция информации. Пусть нами получен текстовый файл некоторого объема. Воспользуемся каким-либо архиватором и сожмем файл до меньшей длины. Сообщение не стало нести меньше информации. Но как быть с тем, что исходный файл уже сконструирован из несжимаемых битов информации? Приходим к очевидному противоречию.

    Рассмотрим частный случай, когда число возможных исходов некоторого события N = 2, а вероятности исходов неодинаковы, например P1 = 0.1 и P2 = 0.9. Подсчет по формуле Шеннона дает величину информации о результате опыта, равную всего 0,48 бит. Этот простой пример показывает, что ни о какой минимальности информации в один бит речи быть не может. Причина того, что некоторые символы двоичной последовательности могут нести информацию, меньше одного бита, в неравной вероятности исходов заключается в следующем: с одной стороны одни символы встречаются чаще, а другие реже; с другой стороны смысловую нагрузку несут не отдельные символы бинарной последовательности, а их комбинации, язык обладает свойством избыточности, и если в слове пропустить какую-нибудь букву, то не составит труда догадаться и восстановить потерянное.

    5. Виды информации (по функциональному назначению)

    Метод: Объяснение. Время: 4 мин.

    По чисто функциональному назначению выделяют: текстовую, графическую и звуковую информацию.

    Текстовая информация, как и любая другая, хранится в памяти компьютера в двоичном виде. Каждому символу сопоставляется его код – последовательность из фиксированного количества нулей и единиц. В большинстве современных ЭВМ каждому символу соответствует последовательность из 8 нулей и единиц называемая байтом. Всего существует 2 8 = 256 разных последовательностей – это позволяет закодировать 256 различных символов. Соответствие байтов и символов задается с помощью таблицы (кодовая таблица или кодировка), в которой для каждого кода указывается соответствующий символ.

    Графическая информация. В графическом режиме экран разделяется на отдельные светящиеся точки (пиксели), количество которых определяет разрешающую способность монитора и зависит от его типа и режима. Любое графическое изображение хранится в памяти в виде информации о каждом пикселе на экране. Состояние каждого пикселя описывается последовательностью нулей и единиц, соответствующих кодировке его цвета. Такую форму представления информации называют растровой. В зависимости от того, сколькими цветами вы можете высветить каждый пиксель, рассчитывается отводимый под нее объем памяти. Если монитор может работать с 256 цветами, то под каждый пиксель отводится 8 бит, или 1 байт (2 8 = 256).

    Звуковая информация. Звук представляет собой звуковую волну с непрерывно меняющейся амплитудой и частотой. Чем больше амплитуда сигнала, тем он громче для человека. На компьютере можно воспроизводить и записывать музыку и человеческую речь. Существует два способа звукозаписи:

    • Цифровая — когда реальные звуковые волны преобразуются в цифровую информацию путем измерения звука тысячи раз в секунду. Этот процесс называется дискретизацией, и, например, частота дискретизации 44 кГц означает, что измерения производятся 44 тысячи раз в секунду. Ее можно реализовать, если в компьютере есть звуковая плата. Звук представляет собой изменяющееся с течением времени давление, которое может быть преобразовано в изменяющийся во времени электриче6ский сигнал с помощью микрофона. Звуковая плата преобразует электрический сигнал на входе в цифровую информацию путем измерения величины электрического сигнала тысячи раз в секунду. Получившиеся значения записываются в виде нулей и единиц в память компьютера (расширение wav). При воспроизведении звука специальное устройство звуковой карты преобразует цифры обратно в аналоговый сигнал, подающийся на самые обычные звуковые усилители, а оттуда — на колонки. Для получения высококачественного цифрового представления звукового сигнала требуется высокая частота дискретизации.
    • MIDI — запись, которая, вообще говоря, является не реальным звуком, а записью определенных команд указаний синтезатору. Электронный эквивалент нотной записи. MIDI команды гораздо удобнее для хранения музыкальной информации, чем цифровая запись. Однако, таким способом можно записать только те звуки, которые может воспроизводить MIDI синтезатор.

    V. Проверка понимания учащимися нового материала

    Задания:

    1. Сколько бит потребуется для того, чтобы закодировать 54 игральных карты?
    2. Какое количество информации получит второй игрок в игре “Угадай число” при оптимальной стратегии, если первый игрок загадал число от 1 до 32?

    VI. Подведение итогов лекции

    Учитель называет отличившихся, выставляет оценки. Собирает тетради.

    Сегодня на занятии мы продолжили знакомство с таким важным понятием, как “информация”, повторили понятие фундаментальной величины, познакомились с единицами измерения информации, формулами Шеннона и Хартли, повторили понятия неопределенность и вероятность, вспомнили про двоичную систему счисления, познакомились с несколькими способами измерения информации (объемный и алгоритмический).

    VII. Информация учителя о домашнем задании

    Домашнее задание направлено на дальнейшее развитие знаний и подготовку к последующему обучению.

    Человек способен различать 100 градаций яркости. Сколько бит необходимо, чтобы закодировать конкретное значение яркости?

    Вероятность первого события 0,4, а второго и третьего – 0,3. Какое количество информации мы получим после реализации одного из них.

    Источник

    Читайте также:  Способ получения заготовки обработка давлением
    Оцените статью
    Разные способы