7.2. подходы к измерению информации

7.2. подходы к измерению информации: Методика преподавания информатики, М.П.ЛАПЧИК, 2001 читать онлайн, скачать pdf, djvu, fb2 скачать на телефон Учебное пособие предназначено студентам педагогических вузов, изучающим систе-матический курс методики преподавания информатики. В пособии раскрываются цели, принципы отбора содержания и методы преподавания информатики в средней общеобразо-вательной школе

7.2. подходы к измерению информации

Подходы к раскрытию темы в учебной литературе

Проблема измерения информации напрямую связана с проблемой определения информации, поскольку сначала надо уяснить, ЧТО собираемся измерять, а потом уже — КАК это делать, какие единицы использовать. Если опираться на расплывчатое, интуитивное представление ученика об информации, то невозможно дать сколько-нибудь логичное определение количества информации, ввести единицы ее измерения.

Характерным приемом для ряда учебников является следующий: обсуждая вопрос об измерении информации, тут же переходят к описанию компьютерного представления информации в форме двоичного кода. Затем дается утверждение о том, что количество информации равно количеству двоичных цифр (битов) в таком коде. Вот цитата из учебника [16]: «В современной вычислительной технике информация чаще всего кодируется с помощью последовательностей сигналов всего двух видов: намагничено или не намагничено, включено или выключено, высокое или низкое напряжение и т.д. Принято обозначать одно состояние цифрой 0, а другое — цифрой 1. Такое кодирование называется двоичным кодированием, а цифры 0 и 1 называются битами (от англ. Bit — binary digit — двоичная цифра)». В следующем параграфе сказано: «А как узнать количество информации в сообщении, в каких единицах эту информацию измерять? Для двоичных сообщений в качестве такой числовой меры используется количество бит в сообщении. Это количество называется информационным объемом сообщения».

В учебнике [5] написано: «Чтобы стандартизировать измерение количества информации, договорились за единицу количества информации принять сообщение, состоящее из одного символа двухсимвольного алфавита. Использование для измерения количества информации алфавитов с другим числом символов можно уподобить переходу к более крупным единицам измерения». В этом же учебнике содержатся рассуждения и о другом подходе к представлению о количестве информации — содержательном, семантическом: «Количество информации, получаемой из сообщения, зависит от имеющихся предварительных знаний».

Вопрос об измерении информации необходимо раскрывать в контексте рассматриваемого подхода к определению информации. Здесь обязательно должна присутствовать логическая последовательность, пусть даже она приводит в тупик.

В учебнике [26] последовательно прослеживаются два подхода к измерению информации: с точки зрения содержательной и кибернетической концепций.

Методические рекомендации по изучению темы

Содержательный подход к измерению информации

Изучаемые вопросы:

ª От чего зависит информативность сообщения, принимаемого человеком.

ª Единица измерения информации.

ª Количество информации в сообщении об одном из 7V равновероятных событий.

С позиции содержательного подхода просматривается следующая цепочка понятий: информация — сообщение — информативность сообщения — единица измерения информации — информационный объем сообщения.

Исходная посылка: информация — это знания людей. Следующий вопрос: что такое сообщение? Сообщение — это информационный поток, который в процессе передачи информации поступает к принимающему его субъекту. Сообщение — это и речь, которую мы слушаем (радиосообщение, объяснение учителя), и воспринимаемые нами зрительные образы (фильм по телевизору, сигнал светофора), и текст книги, которую мы читаем и т.д.

Вопрос об информативности сообщения следует обсуждать на примерах, предлагаемых учителем и учениками. Правило: информативным назовем сообщение, которое пополняет знания человека, т. е. несет для него информацию. Для разных людей одно и то же сообщение, с точки зрения его информативности, может быть разным. Если сведения «старые», т. е. человек это уже знает, или содержание сообщения непонятно человеку, то для него это сообщение неинформативно. Информативно то сообщение, которое содержит новые и понятные сведения.

Нельзя отождествлять понятия «информация» и «информативность сообщения». Следующий пример иллюстрирует различие понятий. Вопрос: «Содержит ли информацию вузовский учебник по высшей математике с точки зрения первоклассника?». Ответ: «Да, содержит с любой точки зрения! Потому что в учебнике заключены знания людей: авторов учебника, создателей математического аппарата (Ньютона, Лейбница и др.), современных математиков». Эта истина — абсолютна. Другой вопрос: «Будет ли информативным текст этого учебника для первоклассника, если он попытается его прочитать? Иначе говоря, может ли первоклассник с помощью этого учебника пополнить собственные знания?» Очевидно, что ответ отрицательный. Читая учебник, т.е. получая сообщения, первоклассник ничего не поймет, а стало быть, не обратит его в собственные знания.

При объяснении этой темы можно предложить ученикам поиграть в своеобразную викторину. Например, учитель предлагает детям перечень вопросов, на которые они молча записывают ответы на бумагу. Если ученик не знает ответа, он ставит знак вопроса. После этого учитель дает правильные ответу на свои вопросы, а ученики, записав ответы учителя, отмечают, какие из них оказались для них информативными (+), какие — нет (—). При этом для сообщений, отмеченных минусом, нужно указать причину отсутствия информации: не новое (это я знаю), непонятное. Например, список вопросов и ответы одного из учеников могут быть следующими.

Вопрос

учителя

Ответ

ученика

Информативность сообщения

Причина неинформативности

1. Какой город является столицей Франции

Столица Франции — Париж

Столица Франции — Париж

Не новое

2.4-го

изучает коллоидная химия

9

Коллоидная химия изучает дисперсионные состояния систем, обладающих высокой степенью раздробленности

Непонятное

3. Какую высоту и вес имеет Эйфелева башня?

9

Эйфелева башня имеет высоту 300 метров и вес 9000 тонн.

+

Введение понятия «информативность сообщения» является первым подходом к изучению вопроса об измерении информации в рамках содержательной концепции. Если сообщение неинформативно для человека, то количество информации в нем, с точки зрения этого человека, равно нулю. Количество информации в информативном сообщении больше нуля.

Для определения количества информации нужно ввести единицу измерения информации. В рамках содержательного подхода такая единица должна быть мерой пополнения знаний субъекта; иначе можно еще сказать так: мерой уменьшения степени его незнания. В учебнике [26] дано следующее определение единицы информации: «Сообщение, уменьшающее неопределенность знаний в 2 раза, несет 1 бит информации». Немного дальше приводится определение для частного случая: «Сообщение о том, что произошло одно событие из двух равновероятных, несет 1 бит информации».

Определение бита — единицы измерения информации может оказаться сложным для понимания учениками. В этом определении содержится незнакомое детям понятие «неопределенность знаний». Прежде всего нужно раскрыть его. Учитель должен хорошо понимать, что речь идет об очень частном случае: о сообщении, которое содержит сведения о том, что произошло одно из конечного множества (N) возможных событий. Например, о результате бросания монеты, игрового кубика, вытаскивания экзаменационного билета и т. п. Неопределенность знания о результате некоторого события — это число возможных вариантов результата: для монеты — 2, для кубика — 6, для билетов — 30 (если на столе лежало 30 билетов).

Еще одной сложностью является понятие равновероятности. Здесь следует воспользоваться интуитивным представлением детей, подкрепив его примерами. События равновероятны, если ни одно из них не имеет преимущества перед другими. С этой точки зрения выпадения орла и решки — равновероятны; выпадения каждой из шести граней кубика — равновероятны. Полезно привести примеры и неравновероятных событий. Например, в сообщении о погоде в зависимости от сезона сведения о том, что будет дождь или снег могут иметь разную вероятность. Летом наиболее вероятно сообщение о дожде, зимой — о снеге, а в переходный период (в марте или ноябре) они могут оказаться равновероятными. Понятие «более вероятное событие» можно пояснить через родственные понятия: более ожидаемое, происходящее чаще в данных условиях. В рамках базового курса не ставится задача понимания учениками строгого определения вероятности, умения вычислять вероятность. Но представление о равновероятных и неравновероятных событиях должно быть ими получено. Ученики должны научиться приводить примеры равновероятных и неравновероятных событий.

При наличии учебного времени полезно обсудить с учениками понятия «достоверное событие» — событие, которое обязательно происходит, и «невозможное событие». От этих понятий можно оттолкнуться, чтобы ввести интуитивное представление о мере вероятности. Достаточно сообщить, что вероятность достоверного события равна 1, а невозможного — 0. Это крайние значения. Значит, во всех других «промежуточных» случаях значение вероятности лежит между нулем и единицей. В частности, вероятность каждого из двух равновероятных событий равна . При углубленном варианте изучения базового курса можно использовать материал, приведенный в подразделе 1.1 «Вероятность и информация» второй части учебника [26].

Возвращаясь к вопросу об измерении количества информации, заключенной в сообщении об одном из N равновероятных событий, предлагаем следующую логическую цепочку раскрытия темы.

Объяснение удобно начать с частного определения бита как меры информации в сообщении об одном из двух равновероятных событий. Обсуждая традиционный пример с монетой (орел — решка), следует отметить, что получение сообщения о результате бросания монеты уменьшило неопределенность знаний в два раза: перед подбрасыванием монеты было два равновероятных варианта, после получения сообщения о результате остался один единственный. Далее следует сказать, что и для всех других случаев сообщений о равновероятных событиях при уменьшении неопределенности знаний в два раза передается 1 бит информации.

Примеры, приведенные в учебнике, учитель может дополнить другими, а также предложить ученикам придумать свои примеры. Индуктивно, от частных примеров учитель вместе с классом приходит к обобщенной формуле: 2i = N. Здесь N — число вариантов равновероятных событий (неопределенность знаний), а i — количество информации в сообщении о том, что произошло одно из N событий.

Если N— известно, а i является неизвестной величиной, то данная формула превращается в показательное уравнение. Как известно, показательное уравнение решается с помощью функции логарифма: i= log2N. Здесь учителю предоставляются два возможных пути: либо с опережением уроков математики объяснить, что такое логарифм, либо «не связываться» с логарифмами. Во втором варианте следует рассмотреть с учениками решение уравнения для частных случаев, когда N есть целая степень двойки: 2, 4, 8, 16, 32 и т.д. Объяснение происходит по схеме:

Если N = 2 = 21, то уравнение принимает вид: 2i = 21, отсюда i = 1.

Если N = 4 = 22, то уравнение принимает вид: 21 = 22, отсюда i = 2.

Если N = 8 = 23, то уравнение принимает вид: 2i = 23, отсюда i = 3 и т. д.

В общем случае, если N = 2k, где k — целое число, то уравнение принимает вид 2i = 2k и, следовательно, i = k. Ученикам полезно запомнить ряд целых степеней двойки хотя бы до 210 = 1024. С этими величинами им предстоит еще встретиться в других разделах.

Для тех значений N, которые не являются целыми степенями двойки, решение уравнения 2i = N можно получать из приведенной в учебнике [26] таблицы в §2. Совсем не обязательно говорить ученикам, что это таблица логарифмов по основанию 2. Например, желая определить, сколько же бит информации несет сообщение о результате бросания шестигранного кубика, нужно решать уравнение: 2i = 6. Поскольку 22 < 6 < 23, то следует пояснить ученикам, что 2 < i < 3. Заглянув в таблицу, узнаем (с точностью до пяти знаков после запятой), что i = 2,58496 бит.

Рассмотренные примеры исчерпывают возможности содержательного подхода в решении проблемы измерения информации. Очевидно, что предложенный метод применим только в очень частных случаях. Попробуйте с содержательной точки зрения подсчитать количество информации, полученной в результате прочтения нового для вас параграфа в учебнике! Сделать это невозможно, хотя фактом является то, что информация получена. В этом и проявляется тот «тупик» данного подхода, о котором говорилось выше.

Кибернетический (алфавитный) подход к измерению информации

Изучаемые вопросы:

ª Что такое алфавит, мощность алфавита.

ª Что такое информационный вес символа в алфавите.

ª Как измерить информационный объем текста с алфавитной точки зрения.

ª Что такое байт, килобайт, мегабайт, гигабайт.

ª Скорость информационного потока и пропускная способность канала.

Рассматриваемый в этой теме подход к измерению информации является альтернативным к содержательному подходу, обсуждавшемуся ранее. Здесь речь идет об измерении количества информации в тексте (символьном сообщении), составленном из символов некоторого алфавита. К содержанию текста такая мера информации отношения не имеет. Поэтому такой подход можно назвать объективным, т.е. не зависящим от воспринимающего его субъекта.

Алфавитный подход — это единственный способ измерения информации, который может применяться по отношению к информации, циркулирующей в информационной технике, в компьютерах.

Опорным в этой теме является понятие алфавита. Алфавит — это конечное множество символов, используемых для представления информации. Число символов в алфавите называется мощностью алфавита (термин взят из математической теории множеств). В основном содержании базового курса алфавитный подход рассматривается лишь с позиции равновероятного приближения. Это значит, что допускается предположение о том, что вероятности появления всех символов алфавита в любой позиции в тексте одинаковы. Разумеется, это не соответствует реальности и является упрощающим предположением.

В рассматриваемом приближении количество информации, которое несет в тексте каждый символ (i), вычисляется из уравнения Хартли: 2i = N, где N — мощность алфавита. Величину i можно назвать информационным весом символа. Отсюда следует, что количество информации во всем тексте (i), состоящем из К символов, равно произведению информационного веса символа на К: I = i´К. Эту величину можно назвать информационным объемом текста. Такой подход к измерению информации еще называют объемным подходом.

Полезно обсудить с учениками следующий вопрос: какова минимальная мощность алфавита, с пoмощыо которого можно записывать (кодировать) информацию? Этот вопрос напрямую связан с заданием № 3 к § 3 учебника [11], которое звучит так: «Докажите, что исходя из алфавитного подхода, сообщение любой длины, использующее односимвольный алфавит, содержит нулевую информацию».

Предположим, что используемый алфавит состоит всего из одного символа, например «1». Интуитивно понятно, что сообщить что-либо с помощью единственного символа невозможно. Но это же доказывается строго с точки зрения алфавитного подхода. Информационный вес символа в таком алфавите находится из уравнения: 2i= 1. Но поскольку 1 = 2°, то отсюда следует, что i = 0 бит. Полученный вывод можно проиллюстрировать следующим образным примером. Представьте себе толстую книгу в 1000 страниц, на всех страницах которой написаны одни единицы (единственный символ используемого алфавита). Сколько информации в ней содержится? Ответ: нисколько, ноль. Причем такой ответ получается с любой позиции, как с содержательной, так и с алфавитной.

Минимальная мощность алфавита, пригодного для передачи информации, равна 2. Такой алфавит называется двоичным алфавитом. Информационный вес символа в двоичном алфавите легко определить. Поскольку 2i = 2, то i = 1 бит. Итак, один символ двоичного алфавита несет 1 бит информации. С этим обстоятельством ученики снова встретятся, когда будут знакомиться с алфавитом внутреннего языка компьютера — языка двоичного кодирования.

Бит — основная единица измерения информации. Кроме нее используются и другие единицы. Следует обратить внимание учеников на то, что в любой метрической системе существуют единицы основные (эталонные) и производные от них. Например, основная физическая единица длины — метр. Но существуют миллиметр, сантиметр, километр. Расстояния разного размера удобно выражать через разные единицы. Так же обстоит дело и с измерением информации. 1 бит — это исходная единица. Следующая по величине единица — байт. Байт вводится как информационный вес символа из алфавита мощностью 256. Поскольку 256 = 28, то 1 байт = 8 бит. Мы снова встречаемся с темой, которая является своеобразной пропедевтикой к будущему изучению компьютера.

Уже в рамках данной темы можно сообщить ученикам, что компьютер для внешнего представления текстов и другой символьной информации использует алфавит мощностью 256 (во внутреннем представлении любая информация в компьютере кодируется в двоичном алфавите). Фактически, для выражения объема компьютерной информации в качестве основной единицы используется байт.

Представляя ученикам более крупные единицы: килобайт, мегабайт, гигабайт — нужно обратить их внимание на то, что мы привыкли приставку «кило» воспринимать, как увеличение в 1000 раз. В информатике это не так. Килобайт больше байта в 1024 раза, а число 1024 = 210. Так же относится и «мега» по отношению к «кило» и т.д. Тем не менее часто при приближенных вычислениях используют коэффициент 1000.

В рамках углубленного курса учитель может изложить алфавитный подход в более адекватном варианте, без допущения равновероятности символов. Теоретический и практический материал на эту тему можно найти в пособии [8] в подразделе 1.4.

Примеры решения задач

Задачи по теме «Измерение информации. Содержательный подход» связаны с использованием уравнения 2i = N. Возможны два варианта условия задачи: 1) дано N, найти i; 2) дано i, найти N.

В случаях, когда N равно целой степени двойки, желательно, чтобы ученики выполняли вычисления «в уме». Как уже говорилось выше, полезно запомнить ряд целых степеней числа 2 хотя бы до 210. В противном случае следует использовать таблицу решения уравнения 2i = N, приведенную в [25] и [8], в которой рассматриваются значения N от 1 до 64.

Для основного уровня изучения базового курса предлагаются задачи, связанные с сообщениями о равновероятных событиях. Ученики должны это понимать и обязательно качественно обосновывать, используя термин «равновероятные события».

Пример 1. Сколько бит информации несет сообщение о том, что из колоды в 32 карты достали даму пик?

Решение. При случайном вытаскивании карт из перемешанной колоды ни одна из карт не имеет преимущества быть выбранной по сравнению с другими. Следовательно, случайный выбор любой карты, в том числе и дамы пик — события равновероятные. Отсюда следует, что неопределенность знаний о результате вытаскивания карты равна 32 — числу карт в колоде. Если i — количество информации в сообщении о результате вытаскивания одной карты (дамы пик), то имеем уравнение:

2i = 32.

Поскольку 32 = 25, то, следовательно, i = 5 бит.

На тему данной задачи учитель может предложить еще несколько заданий. Например: сколько информации несет сообщение о том, что из колоды карт достали карту красной масти? (1 бит, так как красных и черных карт одинаковое количество).

Сколько информации несет сообщение о том, что из колоды карт достали карту бубновой масти? (2 бита, так как всего в колоде 4 масти и количество карт в них равные).

Пример 2. Проводится две лотереи: «4 из 32» и «5 из 64». Сообщение о результатах какой из лотерей несет больше информации?

Решение. У этой задачи есть «подводный камень», на который может натолкнуться учитель. Первый путь решения тривиальный: вытаскивание любого номера из лотерейного барабана — события равновероятные. Поэтому в первой лотерее количество информации в сообщении об одном номере равно 5 бит (25 = 32), а во второй — 6 бит (2б = 64). Сообщение о четырех номерах в первой лотерее несет 5´4 = 20 бит. Сообщение о пяти номерах второй лотереи несет 6´5 = 30 бит. Следовательно, сообщение о результатах второй лотереи несет больше информации, чем о результатах первой.

Но возможен и другой путь рассуждения. Представьте себе, что вы наблюдаете за розыгрышем лотереи. Выбор первого шара производится из 32 шаров в барабане. Результат несет 5 бит информации. Но 2-й шар будет выбираться уже из 31 номера, 3-й — из 30 номеров, 4-й — из 29. Значит, количество информации, которое несет 2-й номер, находится из уравнения: 2i = 31. Используя таблицу решения этого уравнения, находим: i = 4,95420 бит. Для 3-го номера: 2i = 30; i = 4,90689 бит. Для 4-го номера: 2i' = 29; i = 4,85798 бит. В сумме получаем: 5 + 4,95420 + 4,90689 + 4,85798 = = 19,71907 бит. Аналогично и для второй лотереи. Конечно, на окончательном выводе такие подсчеты не отразятся. Можно было вообще, ничего не вычисляя, сразу ответить, что второе сообщение несет больше информации, чем первое. Но здесь интересен сам путь вычислений с учетом «выбывания участников».

Последовательность событий в этом случае не является независимой друг от друга (кроме первого). Это, как мы увидели, отражается в различии информативности сообщений о каждом из них. Первый (тривиальный) вариант решения задачи получен в предположении независимости событий и является в таком случае неточным.

В условиях задач по теме «Измерение информации. Алфавитный подход» связываются между собой следующие величины: мощность символьного алфавита — N; информационный вес символа — /; число символов в тексте (объем текста) — К; количество информации, заключенной в тексте (информационный объем текста) — I. Кроме того, при решении задач требуется знать связь между различными единицами информации: бит, байт, килобайт, мегабайт, гигабайт.

Задачи, соответствующие уровню минимального содержания базового курса, рассматривают лишь приближение равновероятного алфавита, т. е. допущение того, что появление любого символа в любой позиции текста — равновероятно. В задачах для углубленного уровня обучения используется более реальное предположение о неравновероятности символов. В таком случае, появляется еще один параметр — вероятность символа (р).

Пример 3. Два текста содержат одинаковое количество символов. Первый текст составлен в алфавите мощностью 32 символа, второй — мощностью 64 символа. Во сколько раз отличается количество информации в этих текстах?

Решение. В равновероятном приближении информационный объем текста равен произведению числа символов на информационный вес одного символа:

Поскольку оба текста имеют одинаковое число символов (К), то различие информационных объемов определяется только разницей в информативности символов алфавита (i). Найдем i1 для первого алфавита и i2 для второго алфавита:

2i1 = 32, отсюда i1 = 5 бит;

2i2 = 64, отсюда i2 = 6 бит.

Следовательно, информационные объемы первого и второго текстов будут равны:

I1 = К×5 бит, 12=К×6 бит.

Отсюда следует, что количество информации во втором тексте больше, чем в первом в 6/5, или в 1,2 раза.

Пример 4. Объем сообщения, содержащего 2048 символов, составил 1/512 часть Мбайта. Каков размер алфавита, с помощью которого записано сообщение?

Решение. Переведем информационный объем сообщения из мегабайтов в биты. Для этого данную величину умножим дважды на 1024 (получим байты) и один раз — на 8:

I = 1/512•1024•1024•8 = 16384 бит.

Поскольку такой объем информации несут 1024 символа (К), то на один символ приходится:

i = I/K = 16384/1024 = 16 бит.

Отсюда следует, что размер (мощность) использованного алфавита равен 216 = 65 536 символов.

Заметим, что именно такой алфавит через некоторое время станет международным стандартом для представления символьной информации в компьютере (кодировка Unicode).

Методика преподавания информатики

Методика преподавания информатики

Обсуждение Методика преподавания информатики

Комментарии, рецензии и отзывы

7.2. подходы к измерению информации: Методика преподавания информатики, М.П.ЛАПЧИК, 2001 читать онлайн, скачать pdf, djvu, fb2 скачать на телефон Учебное пособие предназначено студентам педагогических вузов, изучающим систе-матический курс методики преподавания информатики. В пособии раскрываются цели, принципы отбора содержания и методы преподавания информатики в средней общеобразо-вательной школе