- •1.Алфавитный и содержательный подход к изучению информации.
- •2. Информация. Информационные процессы (кодирование, обработка, передача, хранение).
- •1)Бумажные носители.
- •Представление чисел. Система счисления.
- •4. Логические элементы и узлы
- •6. Файлы и файловая система. Функциональное устройство пк.
- •Функциональное устройство
- •8. Алгоритмы. Алгоритмические конструкции.
- •9. Массивы и подпрограммы.
- •10. Технологии обработки графической информации
- •11. Мультимедиа-технологии
- •12. Структуры данных
- •13. Машины Тьюринга и Поста
- •14. Классификация языков программирования
- •15. Компьютерные сети. Поиск информации.
- •16. Сервисы Интернета
- •17. Язык гипертекстовой разметки html.
- •7 Модели
1.Алфавитный и содержательный подход к изучению информации.
Измерение информации. Алфавитный подход
Алф. подход используется для измерения кол-ва информации в тексте, представленном в виде последоват. символов некоторого алфавита. Такой подход не связан с содержанием текста. Кол-во инф-ии в этом случае называется информационным объемом текста, который пропорционален размеру текста — кол-у символов.
Каждый символ текста несет определенное количество информации. Его называют информационным весом символа. Здесь предполагается, что текст — это последовательная цепочка пронумерованных символов.
Все множество различных символов, используемых для записи текстов, называется алфавитом. Размер алфавита — целое число, которое называется мощностью алфавита: буквы ,цифры, знаки препинания, различные скобки, пробел и пр.
Опр. Инф-ых весов символов может происходить в двух приближениях:
в предположении равной вероятности
с учетом разной вероятности
Приближение равной вероятности символов в тексте
Если допустить, что все символы алфавита в любом тексте появляются с одинаковой частотой, то инф-ый вес всех символов будет одинаковым. Пусть N — мощность алфавита. Тогда доля любого символа в тексте составляет l/N-ю часть текста. По опр. вероятности эта величина равна вероятности появления символа в каждой позиции текста:
р= 1/N
Согласно формуле К.Шеннона, количество информации, которое несет символ, вычисляется следующим образом:
С ледовательно, информационный вес символа (i) и мощность алфавита (N) связаны между собой по формуле Хартли
З ная информационный вес одного символа (i) и размер текста, выраженный количеством символов (К), можно вычислить информационный объем текста по формуле:
С позиции алфавитного подхода к измерению информации 1 бит — это информационный вес символа из двоичного алфавита.
Более крупной единицей измерения информации является байт.
1 байт — это информационный вес символа из алфавита мощностью 256.
Для представления текстов, хранимых и обрабатываемых в компьютере, чаще всего используется алфавит мощностью 256 символов.
Приближение разной вероятности встречаемости символов в тексте
В реальном тексте разные символы встречаются с разной частотой. Отсюда следует, что вероятности появления разных символов - различны и, следовательно, различаются их информационные веса.
З десь N — размер (мощность) алфавита; п — число повторений символа номер j в тексте; i — информационный вес символа номер j.
Измерение информации. Содержательный подход
С позиции содерж. подхода к измерению инф. решается вопрос о кол-ве инф-ии в сообщении, получаемом человеком. Рассматр.следующая ситуация:
человек получает сообщение о некотором событии; при этом заранее известна неопределенность знания. Неоп-ть знания может быть выражена либо числом возможных вариантов события, либо вероятностью ожидаемых вариантов события;
в результате получения сообщения неопределенность знания снимается: из некоторого возможного количества вариантов оказался выбранным один;
по формуле выч. Кол-во инф-и в получ. Сообщ., выраженное в битах.
Формула, используемая для вычисления количества информации, зависит от ситуаций, которых может быть две:
Все возможные варианты события равновероятны. Их число конечно и равно N.
Вероятности (р) возможных вариантов события разные и они заранее известны:
{р}, i = 1..N. Здесь по-прежнему N — число возможных вариантов события.
Равновероятные события. Если обозначить буквой i количество информации в сообщении о том, что произошло одно из N равновероятных событий, то величины i и N связаны между собой формулой Хартли: (1)
1 бит — это количество информации в сообщении об одном из двух равновероятных событий.
Неравновероятные события (вероятностный подход)
Если вероятность некоторого события равна р, а i (бит) — это количество информации в сообщении о том, что произошло это событие, то данные величины связаны между собой формулой:
Решая показательное уравнение (3) относительно i, получаем:
Формула (4) называют формулой Шеннона.
Качественный подход
Кач. подход, использоваться на уровне пропедевтики базового курса инф.(5—7) или в базовом курсе-(8—9).
На данном уровне изучения обсуждается следующая цепочка понятий: информация — сообщение — информативность сообщения.
Исходная посылка: информация — это знания людей, получаемые ими из различных сообщений. Сообщ. — это информационный поток (поток данных), который в процессе передачи инф-ии поступает к принимающему его субъекту.Информативным назовем сообщение, кот. пополняет знания человека, т.е. несет для него информацию. Информативное содержит новые и понятные сведения.
Если сообщение неинформативно для человека, то колич. Инф-ии в нем, с точки зрения этого человека, равно нулю. Колич. Инф-ии в информативном сообщении больше нуля.
Количественный подход в приближении равновероятности
Данный подход может изучаться либо в углуб. варианте базового курса в основной школе, либо при изучении информатики в 10—11 на базовом уровне.
Рассматривается следующая цепочка понятий: равновероятные события — неопределенность знаний — бит как единица измерения информации — формула Хартли — решение показательного уравнения для N равного целым степеням двойки.
События равновероятны, если ни одно из них не имеет преимущества перед другими.
Сообщение, уменьшающее неопределенность знаний в 2 раза, несет 1 бит информации.
Вероятностный подход к измерению информации
Он может изучаться в 10—11-х классах в рамках общеобразоват. курса проф. уровня или в элект. курсе, посвященном мат. основам инф-и. Здесь должно быть введено мат.корректное опр. вероятности.Ученики должны знать функцию логарифма и ее св-ва, уметь решать показат. уравнения.
Вероятность невозможного события равна нулю, вероятность достоверного события равна единице.
Математическое определение вероятности звучит так: вероятность равна отношению числа исходов, благоприятствующих данному событию, к общему числу равновозможных исходов.