Понятие информации восприятие информации органами чувств виды информации. Типы и способы восприятия информации Виды информации по форме отображения

Информация (от лат. informatio, разъяснение, изложение, осведомленность) - любые сведения и данные, отражающие свойства объектов в природных, социальных и технических системах и передаваемые звуковым, графическим (в т. ч. письменным) или иным способом без применения или с применением технических средств.

Классификация информации

Информацию можно разделить на виды по различным критериям:

1. по способу восприятия :

    Визуальная - воспринимаемая органами зрения.

    Аудиальная - воспринимаемая органами слуха.

    Тактильная - воспринимаемая тактильными рецепторами.

    Обонятельная - воспринимаемая обонятельными рецепторами.

    Вкусовая - воспринимаемая вкусовыми рецепторами.

2. по форме представления :

    Текстовая - передаваемая в виде символов, предназначенных обозначать лексемы языка.

    Числовая - в виде цифр и знаков, обозначающих математические действия.

    Графическая - в виде изображений, предметов, графиков.

    Звуковая - устная или в виде записи и передачи лексем языка.

3. по назначению :

    Массовая - содержит тривиальные сведения и оперирует набором понятий, понятным большей части социума.

    Специальная - содержит специфический набор понятий, при использовании происходит передача сведений, которые могут быть не понятны основной массе социума, но необходимы и понятны в рамках узкой социальной группы, где используется данная информация.

    Секретная - передаваемая узкому кругу лиц и по закрытым (защищённым) каналам.

    Личная (приватная) - набор сведений о какой-либо личности, определяющий социальное положение и типы социальных взаимодействий внутри популяции.

4. по значению :

    Актуальная - информация, ценная в данный момент времени.

    Достоверная - информация, полученная без искажений.

    Понятная - информация, выраженная на языке, понятном тому, кому она предназначена.

    Полная - информация, достаточная для принятия правильного решения или понимания.

    Полезная - полезность информации определяется субъектом, получившим информацию в зависимости от объёма возможностей её использования.

5. по истинности :

    истинная

Информация обладает следующими свойствами:

    достоверность

Информация достоверна, если она отражает истинное положение дел. Недостоверная информация может привести к неправильному пониманию или принятию неправильных решений. Достоверная информация обладает свойством устаревать, т. е. переста­ет отражать истинное положение дел.

Информация полна, если ее достаточно для понимания и принятия ре­шений. Как неполная, так и избыточная информация сдерживает принятие ре­шений или может повлечь ошибки.

    точность

Точность информации определяется степенью ее близости к реальному состоянию объекта, процесса, явления.

    ценность

Ценность информации зависит от того, насколько она важна для реше­ния задачи, а также от того, насколько в дальнейшем она найдет применение в каких-либо видах деятельности человека.

    своевременность

Только своевременно полученная информация может принести ожидае­мую пользу. Одинаково нежелательны как преждевременная подача информации (когда она еще не может быть усвоена), так и ее задержка.

    понятность

Если ценная и своевременная информация выражена непонятным обра­зом, она может стать бесполезной. Информация становится понятной, если она выражена языком, на котором говорят те, кому предназначена эта информация.

    доступность

Информация должна преподноситься в доступной (по уровню восприя­тия) форме. Поэтому одни и те же вопросы по-разному излагаются в школь­ных учебниках и научных изданиях.

    краткость

Информацию по одному и тому же вопросу можно изложить кратко (сжато, без несущественных деталей) или пространно (подробно, многословно). Краткость информации необходима в справочниках, энциклопедиях, всевозмож­ных инструкциях.

Количество информации можно рассматривать как меру уменьшения неопределенности знания при получении информационных сообщений. Это позволяет количественно измерять информацию. Существует формула, которая связывает между собой количество возможных информационных сообщений N и количество информации I, которое несет полученное сообщение: N = 2 i (формула Хартли). Иногда записывается иначе. Так как наступление каждого из N возможных событий имеет одинаковую вероятность p = 1 / N , то N = 1 / p и формула имеет вид I = log 2 (1/p) = - log 2 p

Если события неравновероятные, то:h i = log 2 1/ p i = - log 2 p i ,

где p i - вероятность появления в сообщении i-го символа алфавита.Удобнее в качестве меры количества информации пользоваться не значением h i , а средним значением количества информации, приходящейся на один символ алфавитаH = S p i h i = - S p i log 2 p i

Значение Н достигает максимума при равновероятных событиях, то есть при равенстве всех p i p i = 1 / N

В этом случае формула Шеннона превращается в формулу Хартли.

За единицу количества информации принимается такое количество информации, которое содержится в информационном сообщении, уменьшающем неопределенность знания в два раза. Такая единица названа битом .

Минимальной единицей измерения количества информации является бит, а следующей по величине единицей - байт, причем:

1 байт = 8 битов = 2 3 битов.

В информатике система образования кратных единиц измерения несколько отличается от принятых в большинстве наук. Традиционные метрические системы единиц, например Международная система единиц СИ, в качестве множителей кратных единиц используют коэффициент 10 n , где n = 3, 6, 9 и т. д., что соответствует десятичным приставкам "Кило" (10 3), "Мега" (10 6), "Гига" (10 9) и т. д.

В компьютере информация кодируется с помощью двоичной знаковой системы, и поэтому в кратных единицах измерения количества информации используется коэффициент 2 n

Так, кратные байту единицы измерения количества информации вводятся следующим образом:

1 килобайт (Кбайт) = 2 10 байт = 1024 байт;

1 мегабайт (Мбайт) = 2 10 Кбайт = 1024 Кбайт;

1 гигабайт (Гбайт) = 2 10 Мбайт = 1024 Мбайт.

Количество информации в сообщении. Сообщение состоит из последовательности знаков, каждый из которых несет определенное количество информации.

Если знаки несут одинаковое количество информации, то количество информации I c в сообщении можно подсчитать, умножив количество информации I з, которое несет один знак, на длину кода (количество знаков в сообщении) К:

I c = I з  K

Так, каждая цифра двоичного компьютерного кода несет информацию в 1 бит. Следовательно, две цифры несут информацию в 2 бита, три цифры - в 3 бита и т. д. Количество информации в битах равно количеству цифр двоичного компьютерного кода

Информацио́нная энтропи́я - мера неопределённости или непредсказуемости информации, неопределённость появления какого-либо символа первичного алфавита. При отсутствии информационных потерь численно равна количеству информации на символ передаваемого сообщения.

Энтропия - это количество информации, приходящейся на одно элементарное сообщение источника, вырабатывающего статистически независимые сообщения.

Энтропия стала использоваться как мера полезной информации в процессах передачи сигналов по проводам. Под информацией Шеннон понимал сигналы нужные, полезные для получателя. Неполезные сигналы, с точки зрения Шеннона, это шум, помехи. Если сигнал на выходе канала связи является точной копией сигнала на входе то, с точки зрения теории информации, это означает отсутствие энтропии. Отсутствие шума означает максимум информации. Взаимосвязь энтропии и информации нашло отражение в формуле: H + Y = 1

где Н – энтропия, Y – информация. Этот вывод количественно был обоснован Бриллюэном.

Для расчета энтропии Шеннон предложил уравнение, напоминающее классическое выражение энтропии, найденное Больцманом. H = ∑ P i log 2 1/ P i = -∑ P i log 2 P i ,

где Н – энтропия Шеннона, P i - вероятность некоторого события.

Информационная двоичная энтропия для независимых случайных событий с возможными состояниями (от до , - функция вероятности) рассчитывается по формуле:

Эта величина также называется средней энтропией сообщения. Величина называется частной энтропией, характеризующей только -e состояние.

Таким образом, энтропия события является суммой с противоположным знаком всех произведений относительных частот появления события , умноженных на их же двоичные логарифмы. Это определение для дискретных случайных событий можно расширить для функции распределения вероятностей.

Понятие информации

Слово “информация” происходит от латинского слова informatio , что в переводе означает сведение, разъяснение, ознакомление.

Понятие “информация” в курсе информатики является базовым (основным), его нельзя дать через другие, более простые понятия. В геометрии, например, базовыми являются понятия: “точка”, “луч”, “плоскость”. Содержание базовых понятий в любой науке поясняется на примерах или выявляется путем сопоставления с содержанием других понятий.

Информация – это сведения об окружающем мире, которые повышают уровень осведомленности человека.

Приведем для сопоставления также некоторые другие определения и характеристики:

  • Информация - содержание сообщения или сигнала; сведения, рассматриваемые в процессе их передачи или восприятия, позволяющие расширить знания об интересующем объекте.
  • Информация - является одной из фундаментальных сущностей окружающего нас мира.
  • Информация - отраженное разнообразие, то есть нарушение однообразия.
  • Информация - одно из основных универсальных свойств материи.
  • В бытовом смысле под информацией понимают те сведения, которые человек получает от окружающей природы и общества с помощью органов чувств, которые повышают его уровень осведомленности.
  • В науке под информацией понимается новое полученное знание. Например, математик включит в это понятие те сведения, которые человек не получал, а сам создал с помощью умозаключений.
  • В кибернетике понятие информация связано с процессами управления в сложных системах, та часть знаний, которая используется для ориентирования, активного действия, управления, в целях сохранения, развития системы;
  • В философском смысле - это взаимодействие, отражение, познание.
  • В вероятностном смысле - это сведения, которые снимают полностью или уменьшают существующую до их получения неопределенность.
  • В информатике информация - это сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые уменьшают имеющуюся о них степень неопределенности, неполноты.
  • В технике под информацией понимают сообщения, передаваемые в форме знаков или сигналов.

Виды информации

По способу восприятия информацию разделяют на следующие виды: визуальная, аудиальная, вкусовая, обонятельная и тактильная . Такое деление основывается на чувствах, с помощью которых информация воспринимается человеком: зрение, слух, вкус, обоняние и осязание соответственно. Научные исследования показывают, что свыше 90% информации, получаемой человеком из внешнего мира, приходится на зрение и слух, около 10% - на вкус, обоняние и осязание. Мир живой природы дает великое множество примеров, когда органы чувств (органы получения информации) достигли удивительного совершенства: зоркость глаза орла, круговое поле зрения стрекозы, тонкость обоняния и слуха диких животных. Встречаются у животных и органы чувств, которых человек не имеет. Это боковая линия у рыб, ультразвуковой "локатор" у летучих мышей. У саламандры под кожей на голове есть железа, которая способна различать солнечный свет ("третий глаз"). А у змеи между глазами и носом есть участок кожи, очень чувствительный к теплу. С помощью этого органа змея воспринимает тепловую картину мира.

Человек создает приборы, позволяющие получать информацию, которая недоступна ему в непосредственных ощущениях. Микроскопы, телескопы, термометры, спидометры - перечень, который можно продолжать и продолжать. Аналогам органов чувств человека в технических приборах соответствуют различные датчики . Получение информации называется вводом . В персональном компьютере за ввод информации отвечают специальные устройства ввода: клавиатура, сканер, дигитайзер, микрофон, мышь и многое другое.

Человек воспринимает информацию с помощью органов чувств. Воспринимаемая информация поступает в виде энергетических сигналов (свет, звук, тепло) и излучений (вкус и запах), причем процесс поступления этих сигналов происходит непрерывно.

Чувствительные органы живого организма в основном по своей природе дискретны . Зрительные образы воспринимают клетки сетчатки глаза, тактильные ощущения возникают в чувствительных нейронах, запахи воспринимаются рецепторами обоняния, каждый из которых в любой момент времени находится либо в возбужденном, либо невозбужденном состоянии. Все чувственные восприятия преобразуются в организме из дискретной формы в непрерывную, причем информация хранится не в отдельных нейронах головного мозга, а распределена по нему целиком. Непрерывность представления, например, зрительной информации позволяет человеку уверенно воспринимать динамику окружающего мира. Дискретные величины принимают не все возможные, а только определенные значения, и их можно пересчитать.

В технике непрерывная информация называется аналоговой. Многие устройства, созданные человеком, работают с аналоговой информацией. Луч кинескопа телевизора перемещается по экрану, вызывая свечение точек. Чем сильнее луч, тем ярче свечение. Изменение свечения происходит плавно и непрерывно. Проигрыватель грампластинок, ртутный термометр, манометр - примеры аналоговых устройств. Некоторые бытовые приборы могут иметь как аналоговую, так и цифровую конструкцию. К примеру, тонометр - прибор для измерения кровяного давления. Существенным отличием является то, что аналоговый прибор может выдать абсолютно произвольную величину показаний (чуть больше или меньше деления), а набор показаний у цифрового прибора ограничен количеством цифр на индикаторе. Компьютер работает исключительно с дискретной (цифровой ) информацией. Память компьютера состоит из отдельных битов, а значит, дискретна. Датчики, посредством которых воспринимается информация, измеряют в основном непрерывные характеристики - температуру, нагрузку, напряжение и т.д. Встает проблема преобразования аналоговой информации в дискретную форму. Идея дискретизации непрерывного сигнала заключается в следующем. Пусть имеется некоторый непрерывный сигнал. Можно допустить, что на маленьких промежутках времени значение характеристик этого сигнала постоянно и меняется мгновенно в конце каждого промежутка. "Нарезав" весь временной интервал на эти маленькие кусочки и взяв на каждом из них значение характеристик, получим сигнал с конечным числом значений. Таким образом, он станет дискретным. Непрерывная величина часто ассоциируется с графиком функции, а дискретная - с таблицей ее значений.

Такой процесс называется оцифровкой аналогового сигнала , а преобразование информации - аналого-цифровым преобразованием . Точность преобразования зависит от величины дискретности - частоты дискретизации: чем выше частота дискретизации, тем ближе цифровая информация к качеству аналоговой. Но и тем больше вычислений приходится делать компьютеру и тем больше информации хранить и обрабатывать. Классификация информации

Информацию можно условно делить на различные виды, основываясь на том или ионом ее свойстве или характеристике, например по способу кодирования, сфере возникновения, способу передачи и восприятия и общественному назначению и т.д..

  • По способу кодирования

По способу кодирования сигала информацию можно разделить на аналоговую и цифровую. Аналоговый сигнал информацию о величине исходного параметра, о котором сообщается в информации, представляет в виде величины другого параметра, являющегося физической основой сигнала, его физическим носителем. Например, величины углов наклона стрелок часов - это основа для аналогового отображения времени. Высота ртутного столбика в термометре - это тот параметр, который дает аналоговую информацию о температуре. Чем больше длина столика в термометре, тем больше температура. Для отображения информации в аналоговом сигнале используются все промежуточные значения параметра от минимального до максимального, т.е. теоретически бесконечно большое их число. Цифровой сигнал использует в качестве физической основы для записи и передачи информации только минимальное количество таких значений, чаще всего только два. Например, в основе записи информации в ЭВМ применяются два состояния физического носителя сигнала - электрического напряжения. Одно состояние - есть электрическое напряжение, условно обозначаемое единицей (1), другое - нет электрического напряжения, условно обозначаемое нулем (0). Поэтому для передачи информации о величине исходного параметра необходимо использовать представление данных в виде комбинации нулей и единиц, т.е. цифровое представление. Интересно, что одно время были разработаны и использовались вычислительные машины, в основе которых стояла троичная арифметика, так как в качестве основных состояний электрического напряжения естественно взять три следующие: 1) напряжение отрицательно, 2) напряжение равно нулю, 3)напряжение положительно. До сих пор выходят научные работы, посвященные таким машинам и описывающие преимущества троичной арифметики. Сейчас в конкурентной борьбе победили производители двоичных машин. Будет ли так всегда? Приведем некоторые примеры бытовых цифровых устройств. Электронные часы с цифровой индикацией дают цифровую информацию о времени. Калькулятор производит вычисления с цифровыми данными. Механический замок с цифровым кодом тоже можно назвать примитивным цифровым устройством.

  • По сфере возникновения

По сфере возникновения информацию можно классифицировать следующим образом. Информацию, возникшую в неживой природе называют элементарной, в мире животных и растений - биологической, в человеческом обществе - социальной. В природе, живой и неживой, информацию несут: цвет, свет, тень, звуки и запахи. В результате сочетания цвета, света и тени, звуков и запахов возникает эстетическая информация. Наряду с естественной эстетической информацией, как результат творческой деятельности людей возникла другая разновидность информации - произведения искусств. Кроме эстетической информации в человеческом обществе создается семантическая информация, как результат познания законов природы, общества, мышления. Деление информации на эстетическую и семантическую очевидно очень условно, просто необходимо понимать, что в одной информации может преобладать ее семантическая часть, а в другой эстетическая.

  • По способу передачи и восприятия

По способу передачи и восприятия информацию принято классифицировать следующим образом. Информация, передаваемая в виде видимых образов и символов называется визуальной; передаваемая звуками - аудиальной; ощущениями - тактильной; запахами - вкусовой. Информация, воспринимаемая оргтехникой и компьютерами называется машинно-ориентированной информацией. Количество машинно-ориентированной информации постоянно увеличивается в связи с непрерывно возрастающим использованием новых информационных технологий в различных сферах человеческой жизни.

  • По общественному назначению

По общественному назначению информацию можно подразделять на массовую, специальную и личную. Массовая информация подразделяется в свою очередь на общественно-политическую, обыденную и научно-популярную. Специальная информация подразделяется на производственную, техническую, управленческую и научную. Техническая информация имеет следующие градации:

станкостроительная,

машиностроительная,

инструментальная...

  • Научная информация подразделяется на биологическую, математическую, физическую...
  • По форме представления
  1. Текстовая – информация, которая содержится в печатных или письменных документах или отображается техническими устройствами в виде текста.
  2. Графическая – картины, рисунки, фотографии, графики, схемы, видеоизображение на экране телевизора или компьютера.
  3. Звуковая – устная речь, музыка, шумовые эффекты.
  4. Числовая – наборы числовых данных.
  5. Управляющая – команды и инструкции, которые передаются определенным исполнителям (людям, животным, роботам, станкам с ЧПУ, компьютерам).
  6. Мультимедийная – информация, которая содержит в себе несколько видов информации (кино).

Свойства информации

Информация необходима человеку не вообще, а конкретно в нужное время для ориентирования в окружающем мире и принятия решений о дальнейших действиях.

Чтобы информация способствовала принятию правильных решений, она должна характеризоваться следующими свойствами:

  • полезность или релевантность (соответствие запросам потребителя);
  • достоверность (истинность положения дел, отсутствие скрытых ошибок);
  • полнота (достаточно для понимания и принятия решения);
  • актуальность или своевременность (важность для настоящего времени);
  • доступность (возможность ее получения данным потребителем);
  • защищенность (невозможность несанкционированного использования или изменения);
  • эргономичность (удобство формы или объема с точки зрения данного потребителя);
  • объективность (не зависит от чьего-либо мнения);
  • понятность (понятно выражена).
  • Полнота (информация полна, если ее достаточно для принятия решений)
  • Точность (определяется степенью близости к реальному состоянию объекта, процесса, явления)

Свойства информации подразделяются на:

Атрибутивные;

Прагматические;

Динамические.

Атрибутивные - это те свойства, без которых информация не существует. Прагматические свойства характеризуют степень полезности информации для пользователя, потребителя и практики. Динамические свойства характеризуют изменение информации во времени.

Дискретность

Атрибутивным свойствам информации, на которое необходимо обратить внимание, является свойство дискретности. Содержащиеся в информации сведения, знания - дискретны, т.е. характеризуют отдельные фактические данные, закономерности и свойства изучаемых объектов, которые распространяются в виде различных сообщений, состоящих из линии, составного цвета, буквы, цифры, символа, знака.

Непрерывность

Информация имеет свойство сливаться с уже зафиксированной и накопленной ранее, тем самым способствуя поступательному развитию и накоплению. В этом находит свое подтверждение еще одно атрибутивное свойство информации - непрерывность.

Смысла и новизна

Прагматические свойства информации проявляются в процессе использования информации. В первую очередь к данной категории свойств отнесем наличие смысла и новизны информации, которое характеризует перемещение информации в социальных коммуникациях и выделяет ту ее часть, которая нова для потребителя.

Полезность

Полезной называется информация, уменьшающей неопределенность сведений об объекте. Дезинформация расценивается как отрицательные значения полезной информации. Встречается применение термина полезности информации для описания, какое влияние на внутреннее состояние человека, его настроение, самочувствие, наконец здоровье, оказывает поступающая информация. В этом смысле полезная или положительная информация - это та, которая радостно воспринимается человеком, способствует улучшению его самочувствия, а отрицательная информация угнетающе действует на психику и самочувствие человека, может привести к ухудшению здоровья, инфаркту, например.

Ценность

Следующим прагматическим свойством информации является ее ценность. Необходимо обратить внимание, что ценность информации различна для различных потребителей и пользователей.

Кумулятивность

Свойство кумулятивности характеризует накопление и хранение информации.

Рост информации

Прежде всего необходимо отметить свойство роста информации. Движение информации в информационных коммуникациях и постоянное ее распространение и рост определяют свойство многократного распространения или повторяемости. Хотя информация и зависима от конкретного языка и конкретного носителя, она не связана жестко ни с конкретным языком ни с конкретным носителем. Благодаря этому информация может быть получена и использована несколькими потребителями. Это свойство многократной используемости и проявление свойства рассеивания информации по различным источникам.

Старение

Среди динамических свойств необходимо также отметить свойство старения информации.

Особенности информации заключаются в том, что она не является веществом или энергией, хотя отражает действительность в виде распределения материи и энергии во времени и в пространстве и процессов их перераспределения. Однако информация это свойство лишь живых организмов, способных производить фиксирование информации. Источником информации для живых организмов являются органы чувств.

Информация не материальна , хотя для ее существования нужны (первоначально - белки в теле организма). Как правило, чем сложнее объект материального мира или процесс, тем больше информации он в себе несет и, наоборот, чем сложнее организм, собирающий информацию, тем больше вариантов его поведения может соответствовать одной и той же полученной информации.

Понятие и виды информации

Знания, как полученная и сохраняемая информация об окружающих предметах и явлениях, являются жизненно важными для всех живых организмов. Человек, в отличие от других живых организмов, может использовать специальные приборы, которые позволяют расширить познания, которые было бы невозможно получить за счет органов чувств. Кроме того человек может использовать разнообразные материальные носители информации , с помощью которых можно передать информацию остальным людям, которые лично не присутствовали при сборе информации, но в общем случае, заинтересованы в обладании ей.

Определение информации

Существует определение понятия информация от К.Шеннона, согласно которой:

определение информации - это снятая неопределенность, т.е. сведения, которые должны снять в той или иной степени существующую у потребителя до их получения неопределенность, расширить его понимание объекта полезными сведениями.

Понятие информации

В понятие «информация» (от лат. informatio – сведения, разъяснения, изложение) вкладывается различный смысл соответственно той отрасли, где это понятие рассматривается: в науке, технике, обычной жизни и т.д. Обычно под информацией подразумевают любые данные или сведения, которые кого-либо интересуют (сообщение о каких-либо событиях, о чьей-либо деятельности и т.п.).

В литературе можно найти большое число определений термина «информация» , которые отражают различные подходы к его толкованию:

Определение 1

  • Информация – сведения (сообщения, данные) независимо от формы их представления («Федеральный закон РФ от $27.07.2006$ г. № $149$-ФЗ Об информации, информационных технологиях и о защите информации»);
  • Информация – сведения об окружающем мире и протекающих в нем процессах, воспринимаемые человеком или специальным устройством (Толковый словарь русского языка Ожегова).

Говоря о компьютерной обработке данных под информацией понимают некоторую последовательность символов или знаков (букв, цифр, закодированных графических образов и звуков и т. п.), которая несет смысловую нагрузку и представлена в понятном для компьютера виде.

В информатике наиболее часто используется следующее определение этого термина:

Определение 2

Информация – это осознанные сведения (знания, выраженные в сигналах, сообщениях, известиях, уведомлениях и т.д.) об окружающем мире, которые являются объектом хранения, преобразования, передачи и использования.

Одно и то же информационное сообщение (статья в журнале, объявление, рассказ, письмо, справка, фотография, телепередача и т. п.) может нести разное количество и содержание информации для различных людей в зависимости от накопленных ими знаниями, от уровня доступности этого сообщения и от уровня интереса к нему. Например, новость, составленная на китайском языке, не несет никакой информации человеку, который не знает этого языка, но может быть полезной для человека со знанием китайского. Никакой новой информации не будет содержать и новость, изложенная на знакомом языке, если ее содержание непонятно или уже известно.

Информацию рассматривают как характеристику не сообщения, а соотношения между сообщением и его получателем.

Виды информации

Информация может существовать в различных видах :

  • текст, рисунки, чертежи, фотографии;
  • световые или звуковые сигналы;
  • радиоволны;
  • электрические и нервные импульсы;
  • магнитные записи;
  • жесты и мимика;
  • запахи и вкусовые ощущения;
  • хромосомы, через которые передаются по наследству признаки и свойства организмов, и т. д.

Различают основные виды информации , которые классифицируют по ее форме представления, способам ее кодирования и хранения:

  • графическая – один из древнейших видов, с помощью которого хранили информацию об окружающем мире в виде наскальных рисунков, а затем в виде картин, фотографий, схем, чертежей на различных материалах (бумага, холст, мрамор и др.), которые изображают картины реального мира;
  • звуковая (акустическая) – для хранения звуковой информации в $1877$ г. было изобретено звукозаписывающее устройство, а для музыкальной информации – разработан способ кодирования с использованием специальных символов, который дает возможность хранить ее как графическую информацию;
  • текстовая – кодирует речь человека с помощью специальных символов – букв (для каждого народа свои); для хранения используется бумага (записи в тетради, книгопечатание и т.п.);
  • числовая – кодирует количественную меру объектов и их свойств в окружающем мире с помощью специальных символов – цифр (для каждой системы кодирования свои); особенно важной стала с развитием торговли, экономики и денежного обмена;
  • видеоинформация – способ хранения «живых» картин окружающего мира, который появился с изобретением кино.

Существуют также виды информации, для которых еще не изобретены способы кодирования и хранения – тактильная информация, органолептическая и др.

Первоначально информация передавалась на большие расстояния с помощью кодированных световых сигналов, после изобретения электричества – передачи закодированного определенным образом сигнала по проводам, позже – используя радиоволны.

Замечание 1

Основателем общей теории информации считают Клода Шеннона, который также положил основу цифровой связи, написав книгу «Математическая теория связи» в $1948$ г., в которой впервые обосновал возможность использования двоичного кода для передачи информации.

Первые компьютеры являлись средством для обработки числовой информации. С развитием компьютерной техники ПК стали использовать для хранения, обработки, передачи различного вида информации (текстовой, числовой, графической, звуковой и видеоинформации).

Хранить информацию с помощью ПК можно на магнитных дисках или лентах, на лазерных дисках (CD и DVD), специальных устройствах энергонезависимой памяти (флэш-память и пр.). Эти методы постоянно совершенствуются, изобретаются и носители информации. Все действия с информацией выполняет центральный процессор ПК.

Предметы, процессы, явления материального или нематериального мира, если их рассматривать с точки зрения их информационных свойств, называют информационными объектами.

Над информацией можно выполнять огромное количество различных информационных процессов, среди которых:

  • создание;
  • прием;
  • комбинирование;
  • хранение;
  • передача;
  • копирование;
  • обработка;
  • поиск;
  • воспринятие;
  • формализация;
  • деление на части;
  • измерение;
  • использование;
  • распространение;
  • упрощение;
  • разрушение;
  • запоминание;
  • преобразование;

Свойства информации

Информация, как и любой объект, обладает свойствами , наиболее важными среди которых, с точки зрения информатики, являются:

  • Объективность. Объективная информация – существующая независимо от человеческого сознания, методов ее фиксации, чьего-либо мнения или отношения.
  • Достоверность. Информация, отражающая истинное положение дел, является достоверной. Недостоверная информация чаще всего приводит к неправильному пониманию или принятию неправильных решений. Устаревание информации может из достоверной информации сделать недостоверную, т.к. она уже не будет отражением истинного положения дел.
  • Полнота. Информация является полной, если она достаточна для понимания и принятия решений. Неполная или избыточная информация может привести к задержке принятия решения или к ошибке.
  • Точность информации – степень ее близости к реальному состоянию объекта, процесса, явления и т. п.
  • Ценность информации зависит от ее важности для принятия решения, решения задачи и дальнейшей применимости в каких-либо видах деятельности человека.
  • Актуальность. Только своевременность получения информации может привести к ожидаемому результату.
  • Понятность. Если ценную и своевременную информацию выразить непонятно, то она, скорее всего, станет бесполезной. Информация будет понятной, когда она, как минимум, выражена понятным для получателя языком.
  • Доступность. Информация должна соответствовать уровню восприятия получателя. Например, одни и те же вопросы по-разному излагаются в учебниках для школы и вуза.
  • Краткость. Информация воспринимается гораздо лучше, если она представлена не подробно и многословно, а с допустимой степенью сжатости, без лишних деталей. Краткость информации незаменима в справочниках, энциклопедиях, инструкциях. Логичность, компактность, удобная форма представления облегчает понимание и усвоение информации.

Информатика изучает … o информацию и ее свойства o процессы n хранения… n обработки… n и передачи информации с помощью компьютеров. Французский язык: informatique = information + automatique информатика информация автоматика Английский язык: computer science компьютер + наука = наука о компьютерах 2

Информация – это … любые сведения об окружающем мире, которые человек получает с помощью органов чувств: n глаза (зрение, 90 процентов информации) n n уши (слух) язык (вкус) нос (обоняние) кожа (осязание) Латинский язык: informatiо – разъяснение, сведения 3

Информация – это … «Информация есть информация, а не материя и не энергия» . Н. Винер, «Кибернетика, или Управление и связь в животном и машине» Информация – одно из базовых понятий в науке (как материя, энергия), поэтому нет более четкого определения: § невозможно выразить через более простые понятия § объясняется только на примерах или в сравнении с другими понятиями 4

Виды информации o Символ (знак, жест) o Текст (состоит из символов, важен их порядок) КОТ ТОК o Числовая информация o Графическая информация (рисунки, картины, чертежи, фото, схемы, карты) o Звук o Тактильная информация (осязание) o Вкус o Запах 5

Информация в неживой природе Информация порядок, организованность, неоднородность q Замкнутые системы (нет обмена информацией и энергией с внешней средой): порядок (больше информации) хаос (меньше информации) q Открытые системы (возможно увеличение информации): H H O атомы водорода и кислорода O H H молекула воды звездная пыль галактика 6

Информация в живой природе q Живые организмы – открытые системы. q Одноклеточные используют информацию о температуре и химическом составе. q Усложнение увеличение информации. свет органическое вещество! углекислый газ CO 2 вода H 2 O глюкоза C 6 H 12 O 6 фотосинтез кислород O 2 q Животные воспринимают информацию органами чувств. 7

Информация в биологии § Сигналы несут информацию от органов чувств к мозгу: § Наследственная информация (молекула ДНК): 9

Информация в технике § системы стабилизации: t° нагреватель контроллер датчик t° § системы программного управления паровая баня токарный станок 10

Информация в технике § роботы (имеют датчики, заменяющие органы чувств – зрение, слух, осязание) Луноход Asimo (Honda) § компьютеры – специальные устройства для хранения, передачи и обработки информации § автоматизированные системы продажи билетов (АСУ «Экспресс») § Интернет – глобальная информационная система 11

Свойства информации Информация должна быть n объективной (не зависящей от чьего-либо мнения) «На улице тепло» , «На улице 28°С» . n понятной (английский язык?) n полезной (получатель решает свои задачи) n достоверной (правильной) дезинформация, помехи, слухи, байки n актуальной – должна быть важна в данный момент (погода, землетрясение) устаревшая, ненужная n полной (достаточной для принятия правильного решения) «Концерт будет вечером» , история 12

Информационные процессы o Хранение n мозг, бумага, камень, береста, … n память ПК, дискеты, винчестеры, CD, DVD, магнитная лента o Обработка n создание новой информации n кодирование – изменение формы, запись в некоторой знаковой системе (в виде кода) n поиск n сортировка – расстановка элементов списка в заданном порядке o Передача источник информации помехи канал связи приемник информации 14

Кодирование информации Кодирование – это запись информации с помощью некоторой знаковой системы (языка). ? Зачем кодируют информацию? кодирование данные (код) Информация передается, обрабатывается и хранится в виде кодов. 101010 передача борьба с помехами (специальные способы кодирования) данные (код) 11111100010 передача обработка хранение 15

Языки Язык – знаковая система, используемая для хранения и передачи информации. n естественные (русский, английский, …) есть правила и исключения n формальные (строгие правила) program qq; begin writeln("Привет!"); end. Грамматика – правила по которым из символов алфавита строятся слова. Синтаксис – правила, по которым из слов строятся предложения. 16

Кодирование Задача 1. Закодируйте свое имя с помощью азбуки Морзе. ВАСЯ! Код неравномерный, нужен разделитель! 17

Кодирование Задача 2. Закодируйте свое имя с помощью кодовой таблицы (Windows-1251): 0 1 2 3 4 5 6 7 8 9 A B C D E F C А Б В Г Д Е Ж З И Й К Л М Н О П D Р С Т У Ф Х Ц Ч Ш Щ Ъ Ы Ь Э Ю Я ВАСЯ! В А С Я С 2 С 0 D 1 DF Код равномерный, разделитель НЕ нужен! 18

Кодирование: цели и способы Текст: § в России: Привет, Вася! § Windows-1251: CFF 0 E 8 E 2 E 52 C 20 C 2 E 0 F 1 FF 21 § передача за рубеж (транслит): Privet, Vasya! § стенография: § шифрование: Рсйгжу-!Гбта” ? Числа: Как зашифровано? § для вычислений: 25 § прописью: двадцать пять § римская система: XXV ! Информация (смысл сообщения) может быть закодирована разными способами! 19

Единицы измерения 1 бит (binary digit, двоичная цифра) – это количество информации, которое мы получаем при выборе одного из двух возможных вариантов (вопрос: «Да» или «Нет» ?) Примеры: Эта стена – зеленая? Да. Дверь открыта? Нет. Сегодня выходной? Нет. Это новый автомобиль? Новый. Ты будешь чай или кофе? Кофе. 21

Если вариантов больше… «Да» или «Нет» ? 2 варианта – 1 бит 4 варианта – 2 бита 8 вариантов – 3 бита? Изменится ли количество информации, если сразу указать на нужный самолет? 22

Перевод в другие единицы 25 Кб = =25· 1024 байт =25· 1024· 8 бит =25: 1024 Мб =25: 1024=25: 10242 Гб =25: 1024: 1024= 25: 10243 Тб умножение крупные единицы деление мелкие единицы 40

Src="https://сайт/presentation/150632667_184504194/image-27.jpg" alt="Перевод в другие единицы Сравните (поставьте знак или =): 3 байта ="> Перевод в другие единицы Сравните (поставьте знак или =): 3 байта = 24 бита 1000 байт

Задачи: текст Сколько места в памяти надо выделить для хранение предложения Привет, Вася! n считаем все символы, включая знаки препинания и пробелы (здесь 13 символов) n если нет дополнительной информации, то считаем, что 1 символ занимает 1 байт n в кодировке UNICODE 1 символ занимает 2 байта Ответ: 13 байт или 104 бита (в UNICODE: 26 байт или 208 бит) 42

Задачи: текст Сколько места надо выделить для хранения 10 страниц книги, если на каждой странице помещаются 32 строки по 64 символа в каждой? Решение: n на 1 странице 32· 64=2048 символов n на 10 страницах 10· 2048=20480 символов n каждый символ занимает 1 байт Ответ: n 20480 байт или … n 20480· 8 бит или … n 20480: 1024 Кб = 20 Кб 43