Понятие информации различные его трактовки

Понятие информации, различные его трактовки. Определения информации (по законодательству Российской Федерации, по Н. Винеру, другие)

Информация (от лат. informatio, разъяснение, изложение, осведомленность) — сведения о чем-либо, независимо от формы их представления.

Слово «информация» происходит от лат. informatio, что в переводе обозначает сведение, разъяснение, ознакомление. Понятие информации рассматривалось ещё античными философами. До начала промышленной революции, определение сути информации оставалось прерогативой преимущественно философов. В XX веке вопросами теории информации стали заниматься кибернетика и информатика.

Современное научное представление об информации очень точно сформулировал Норберт Винер, «отец» кибернетики. Информация — это обозначение содержания, полученного из внешнего мира в процессе нашего приспособления к нему и приспособления к нему наших чувств.

Клод Шеннон, американский учёный, заложивший основы теории информации — науки, изучающей процессы, связанные с передачей, приёмом, преобразованием и хранением информации, — рассматривает информацию как снятую неопределенность наших знаний о чем-то.

Не формулируя в настоящий момент четкого определения информации, попытаемся раскрыть ее сущность, описав те свойства информации, к осознанию и использованию которых человечество в своем развитии подошло.

Понятие информации является наиболее сложным для понимания и обычно во вводных курсах информатики не определяется, принимается как исходное базовое понятие, понимается интуитивно. Часто это понятие отождествляется неправильным образом с понятием «сообщение».

Понятие «информация» имеет различные трактовки в разных предметных областях. Например, информация может пониматься как:

• абстракция, абстрактная модель рассматриваемой системы (в математике);

• сигналы для управления, приспособления рассматриваемой системы (в кибернетике);

• мера хаоса в рассматриваемой системе (в термодинамике);

• вероятность выбора в рассматриваемой системе (в теории вероятностей);

• мера разнообразия в рассматриваемой системе (в биологии) и др.

Информация – это некоторая упорядоченная последовательность сообщений, отражающих, передающих и увеличивающих наши знания.

Информация актуализируется с помощью различной формы сообщений – определенного вида сигналов, символов.

Информация по отношению к источнику или приемнику бывает трех типов: входная, выходная и внутренняя.

Информация по отношению к конечному результату бывает исходная, промежуточная и результирующая.

Информация по ее изменчивости бывает постоянная, переменная и смешанная.

Информация по стадии ее использования бывает первичная и вторичная.

Информация по ее полноте бывает избыточная, достаточная и недостаточная.

Информация по доступу к ней бывает открытая и закрытая.

Есть и другие типы классификации информации.

Пример. В философском аспекте информация делится на мировоззренческую, эстетическую, религиозную, научную, бытовую, техническую, экономическую, технологическую.

Основные свойства информации:

Информация – содержание сообщения, сообщение – форма информации.

Источник

Понятие информации

Понятие информации является наиболее сложным для понимания и обычно во вводных курсах информатики не определяется, принимается как исходное базовое понятие, понимается интуитивно, наивно. Часто это понятие отождествляется неправильным образом с понятием «сообщение».

Понятие «информация» имеет различные трактовки в разных предметных областях. Например, информация может пониматься как:

· абстракция, абстрактная модель рассматриваемой системы (в математике);

· сигналы для управления, приспособления рассматриваемой системы (в кибернетике);

· мера хаоса в рассматриваемой системе (в термодинамике);

· вероятность выбора в рассматриваемой системе (в теории вероятностей);

· мера разнообразия в рассматриваемой системе (в биологии) и др.

Рассмотрим это фундаментальное понятие информатики на основе понятия «алфавит» («алфавитный», формальный подход). Дадим формальное определение алфавита.

Алфавит – конечное множество различных знаков, символов, для которых определена операция конкатенации (приписывания, присоединения символа к символу или цепочке символов); с ее помощью по определенным правилам соединения символов и слов можно получать слова (цепочки знаков) и словосочетания (цепочки слов) в этом алфавите (над этим алфавитом).

Буквой или знаком называется любой элемент x алфавита X, где Понятие информации различные его трактовки. image006. Понятие информации различные его трактовки фото. Понятие информации различные его трактовки-image006. картинка Понятие информации различные его трактовки. картинка image006. Информация (от лат. informatio, разъяснение, изложение, осведомленность) — сведения о чем-либо, независимо от формы их представления.. Понятие знака неразрывно связано с тем, что им обозначается («со смыслом»), они вместе могут рассматриваться как пара элементов (x, y), где x – сам знак, а y – обозначаемое этим знаком.

Пример. Примеры алфавитов: множество из десяти цифр, множество из знаков русского языка, точка и тире в азбуке Морзе и др. В алфавите цифр знак 5 связан с понятием «быть в количестве пяти элементов».

Конечная последовательность букв алфавита называется словом в алфавите (или над алфавитом).

Длиной |p| некоторого слова p над алфавитом Х называется число составляющих его букв.

Слово (обозначаемое символом Ø) имеющее нулевую длину, называется пустым словом: |Ø| = 0.

Множество различных слов над алфавитом X обозначим через S(X) и назовем словарным запасом (словарем) алфавита (над алфавитом) X.

В отличие от конечного алфавита, словарный запас может быть и бесконечным.

Слова над некоторым заданным алфавитом и определяют так называемые сообщения.

Таким образом, алфавит должен позволять решать задачу лексикографического (алфавитного) упорядочивания, или задачу расположения слов над этим алфавитом, в соответствии с порядком, определенным в алфавите (то есть по символам алфавита).

Информация – это некоторая упорядоченная последовательность сообщений, отражающих, передающих и увеличивающих наши знания.

Информация актуализируется с помощью различной формы сообщений – определенного вида сигналов, символов.

Информация по отношению к источнику или приемнику бывает трех типов: входная, выходная и внутренняя.

Информация по отношению к конечному результату бывает исходная, промежуточная и результирующая.

Информация по ее изменчивости бывает постоянная, переменная и смешанная.

Информация по стадии ее использования бывает первичная и вторичная.

Информация по ее полноте бывает избыточная, достаточная и недостаточная.

Информация по доступу к ней бывает открытая и закрытая.

Есть и другие типы классификации информации.

Пример. В философском аспекте информация делится на мировозренческую, эстетическую, религиозную, научную, бытовую, техническую, экономическую, технологическую.

Основные свойства информации:

Любые сообщения измеряются в байтах, килобайтах, мегабайтах, гигабайтах, терабайтах, петабайтах и эксабайтах, а кодируются, например, в компьютере, с помощью алфавита из нулей и единиц, записываются и реализуются в ЭВМ в битах.

Приведем основные соотношения между единицами измерения сообщений:

1 бит (binary digit – двоичное число) = 0 или 1,

1 килобайт (1К) = 2 13 бит,

1 мегабайт (1М) = 2 23 бит,

1 гигабайт (1Г) = 2 33 бит,

1 терабайт (1Т) = 2 43 бит,

1 петабайт (1П) = 2 53 бит,

1 эксабайт (1Э) = 2 63 бит.

Для измерения информации используются различные подходы и методы, например, с использованием меры информации по Р. Хартли и К. Шеннону.

Количество информации – число, адекватно характеризующее разнообразие (структурированность, определенность, выбор состояний и т.д.) в оцениваемой системе. Количество информации часто оценивается в битах, причем такая оценка может выражаться и в долях битов (так речь идет не об измерении или кодировании сообщений).

Мера информации – критерий оценки количества информации. Обычно она задана некоторой неотрицательной функцией, определенной на множестве событий и являющейся аддитивной, то есть мера конечного объединения событий (множеств) равна сумме мер каждого события.

Рассмотрим различные меры информации.

Возьмем меру Р. Хартли. Пусть известны N состояний системы S (N опытов с различными, равновозможными, последовательными состояниями системы). Если каждое состояние системы закодировать двоичными кодами, то длину кода d необходимо выбрать так, чтобы число всех различных комбинаций было бы не меньше, чем N:

Понятие информации различные его трактовки. image008. Понятие информации различные его трактовки фото. Понятие информации различные его трактовки-image008. картинка Понятие информации различные его трактовки. картинка image008. Информация (от лат. informatio, разъяснение, изложение, осведомленность) — сведения о чем-либо, независимо от формы их представления.(1)

Логарифмируя это неравенство, можно записать:

Понятие информации различные его трактовки. edugr4. Понятие информации различные его трактовки фото. Понятие информации различные его трактовки-edugr4. картинка Понятие информации различные его трактовки. картинка edugr4. Информация (от лат. informatio, разъяснение, изложение, осведомленность) — сведения о чем-либо, независимо от формы их представления.

Понятие информации различные его трактовки. image010. Понятие информации различные его трактовки фото. Понятие информации различные его трактовки-image010. картинка Понятие информации различные его трактовки. картинка image010. Информация (от лат. informatio, разъяснение, изложение, осведомленность) — сведения о чем-либо, независимо от формы их представления.(2)

Наименьшее решение этого неравенства или мера разнообразия множества состояний системы задается формулой Р. Хартли:

Уменьшение I говорит об уменьшении разнообразия состояний N системы.

Увеличение I говорит об увеличении разнообразия состояний N системы.

Мера Хартли подходит лишь для идеальных, абстрактных систем, так как в реальных системах состояния системы не одинаково осуществимы (не равновероятны).

Для таких систем используют более подходящую меру К. Шеннона. Мера Шеннона оценивает информацию отвлеченно от ее смысла:

(4)

Понятие информации различные его трактовки. image012. Понятие информации различные его трактовки фото. Понятие информации различные его трактовки-image012. картинка Понятие информации различные его трактовки. картинка image012. Информация (от лат. informatio, разъяснение, изложение, осведомленность) — сведения о чем-либо, независимо от формы их представления.

где n – число состояний системы; рi – вероятность (относительная частота) перехода системы в i-е состояние, а сумма всех pi должна равняться 1.

Пример. Если положение точки в системе из 10 клеток известно, например если точка находится во второй клетке, то есть

то тогда получаем количество информации, равное нулю:

Следует отметить, что формула Шеннона (4), также носит название энтропия Шеннона. Формула (4) позволяет не только оценить количество информации, необходимого для устранения имеющейся неопределенности, но и коренному пересмотру существующих взглядов на соответствующие объекты исследования и формированию принципиально новых идей и взглядов.

Рассмотрим поведение энтропии Шеннона для двоичного алфавита, используемого в машинных кодах. Алфавит рассматриваемого языка состоит из символов «0» и «1». Для этого случая формула (4) примет вид

Понятие информации различные его трактовки. image013. Понятие информации различные его трактовки фото. Понятие информации различные его трактовки-image013. картинка Понятие информации различные его трактовки. картинка image013. Информация (от лат. informatio, разъяснение, изложение, осведомленность) — сведения о чем-либо, независимо от формы их представления.Где через p обозначено какое-либо из значений p(0) или p(1). Что как легко заметить из формул (5) и (6), все равно. Функция (6) представлена графически на Рисунок 3.

Понятие информации различные его трактовки. image015. Понятие информации различные его трактовки фото. Понятие информации различные его трактовки-image015. картинка Понятие информации различные его трактовки. картинка image015. Информация (от лат. informatio, разъяснение, изложение, осведомленность) — сведения о чем-либо, независимо от формы их представления.

Рисунок 3 Примерный характер функции Шеннона I(p) в области 0 £ p £ 1

Наибольшее возможное значение I1=1, которое достигается при p=0.5 и принято за единицу измерения количества информации. Эту единицу по предложению Тьюки назвали бит. К сожалению это название представляется не очень удачным, поскольку является источником распространенного заблуждения, заключающегося в убеждении, что информационная нагрузка одного двоичного символа всегда равна одному биту.

Один бит ­– это количество неопределенности, которое имеет место при необходимости угадывания того, какое из двух равновероятных (и независимых от результатов предыдущих экспериментов) событий будет иметь место при очередном испытании. Иными словами, это количество информации, содержащееся в сообщении о том, какое именно из двух равновероятных событий имело место. Если же эти события не являются равновероятными, то информационная нагрузка одного двоичного символа становиться меньше одного бита и может уменьшаться до нуля.

В реальных текстах вероятности появления тех или иных букв алфавита в значительной степени зависят от того, какие именно буквы им предшествовали.

Пример. Значение вероятности того, что очередная буква в произвольном русском тексте окажется мягким знаком, близка к нулю, если предшествовал набор букв «рассматрив?», и близка к единице, если предшествовал набор букв «рассматриват?».

Интуитивно ясно, что знание предшествующих букв в общем случае облегчает угадывание очередной буквы. Ясно также, что чем больше число известных предшествующих букв, тем, при прочих равных условиях, в большей степени облегчается угадывание очередной буквы. Такая зависимость присутствует в любом связанном тексте (обычный текст, цифровые изображения, музыка, фильмы и так далее) и обусловлена синтаксисом рассматриваемого языка и (что важнее, хотя и менее очевидно) смысловой нагрузкой (семантикой) текста.

Чтобы осуществить количественную оценку указанного обстоятельства, наряду с формулой (4) Шеннон рассматривал следующую формулу:

Понятие информации различные его трактовки. image017. Понятие информации различные его трактовки фото. Понятие информации различные его трактовки-image017. картинка Понятие информации различные его трактовки. картинка image017. Информация (от лат. informatio, разъяснение, изложение, осведомленность) — сведения о чем-либо, независимо от формы их представления.(7)

где Понятие информации различные его трактовки. image019. Понятие информации различные его трактовки фото. Понятие информации различные его трактовки-image019. картинка Понятие информации различные его трактовки. картинка image019. Информация (от лат. informatio, разъяснение, изложение, осведомленность) — сведения о чем-либо, независимо от формы их представления.— вероятность того, что наугад взятая из текста последовательность букв длины m окажется последовательностью Bms. Суммирование в (7) ведется по всем n m возможным последовательностям длины m. В качестве энтропии угадывания очередной буквы связанного текста Шеннон предлагает пользоваться значением

Понятие информации различные его трактовки. image021. Понятие информации различные его трактовки фото. Понятие информации различные его трактовки-image021. картинка Понятие информации различные его трактовки. картинка image021. Информация (от лат. informatio, разъяснение, изложение, осведомленность) — сведения о чем-либо, независимо от формы их представления.(9)

Естественно, что Im – монотонно убывающая функция от m. Лишь в частном случае, когда вероятности появления в тексте тех или иных букв не зависят от того, какие именно буква им предшествовали, значение Im не зависит от m и равно Im= I1 (смотри формулу (4))

Так же Шеннон математически доказал, что любая информация обладает избыточностью и предельные возможности сжатия информации.

Конечно, оперировать такими понятиями могут достаточно подготовленные люди. Поэтому можно ввести понятие информации следующим образом: «Информация – это данные и адекватные им методы».

Рассмотрим это определение подробно. Мы живем, постоянно получая те или иные данные (сообщения). Очень часто под данными и понимают информацию, что не всегда правильно. Например, рассмотрим ситуацию, которую испытывает каждый человек утром. Человек проснулся, посмотрел на часы и в зависимости от времени принимает решения: бежать на работу или спокойно пить кофе, собираться, и не спеша выходить на работу. Где же в этом примере информация. В принципе сразу можно сказать – «время». Но тут следует оговориться, что в зависимости от того, сколько времени (количественного показателя – данных) принимается решение. Таким образом, под информацией можно понимать только те данные, которые человек может осмыслить в силу своих знаний и накопленного опыта.

Приведем пример, когда данные не являются для конкретного человека информацией. Рассмотрим следующую ситуацию. Студент филолог попал случайно на лекцию по термодинамике и слышит следующий текст: «Не ньютоновскими жидкостями называются те жидкости, которые не удовлетворяют уравнению Менделеева-Клайперона». Конечно, в случае если филолог хорошо учился в школе, он сможет вспомнить кто такой Менделеев, кто такой Клайперон – сомневаюсь, ну а то, что у них есть уравнение, да и к тому же, как оно выглядит и тем более как его интерпретировать вряд ли. Для такого человека поток данных, к сожалению, не становится информацией.

Исходя из данного выше определения, можно сказать что, информация может иметь следующие уровни:

Синтаксический уровень – это как оформлена информация (речь, текст, изображение, музыка, сигнал и тому подобное).

Семантический уровень – это непосредственно смысловая нагрузка информации.

Прагматический уровень – это мера полезности информации для конкретного объекта информационного обмена.

До сего момента мы вводили понятие информации не привязывая его к информационной системе, в случае если мы рассматриваем информационную систему, то все выше приведенные рассуждения верны, но требуют дополнительного разъяснения.

Когда мы рассматривали вопрос о мере информации, то имелась ввиду некая абстрактная информация. В случае с информационной системой что будет являться единицей информации? По идее, что, так что этак должен быть бит. Но это довольно распространенное заблуждение, так как информация в информационной системе играет роль управляющего воздействия на систему. В этом случае, конечно единицей информации будет конечно документ. Следует оговориться сразу, что в информационной системе любую информацию рассматривают как документ, а не как мы привыкли в обычной ситуации. Чтобы не происходило путаницы, иногда вводят понятие электронного документа, но в этом понятии есть свои подводные камни, поэтому следует остановиться просто на документе.

Естественно документы информационной системы имеют те же свойства что и обычные документы. Единственно следует отметить, что от типа документа и его жизненного цикла выбирается его местоположение в системе. Например, повседневные распоряжения, бухгалтерские проводки и другие документы постоянной проработки должны находится в секторе оперативного накопления – реагирования информационной системы (если взять в качестве аналога компьютер – в оперативной памяти). А документы длительного использования, технологические карты, производственные карты, нормативы, списки оснастки и оборудования должны находится на постоянном хранении, и использоваться по мере возникновения потребности.

Рассмотрим следующий компонент информационной системы – информационные технологии.

Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет

Источник

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *