Информация

Материал из ПИЭ.Wiki

Перейти к: навигация, поиск

Информация (от лат. informatio, разъяснение, изложение, осведомленность) — общенаучное понятие, связанное с объективными свойствами материи и их отражением в человеческом сознании.

В современной науке рассматриваются два вида информации.

Объективная (первичная) информация - свойство материальных объектов и явлений (процессов) порождать многообразие состояний, которые посредством взаимодействий (фундаментальные взаимодействия) передаются другим объектам и запечатлеваются в их структуре.(см.В.М. Глушков, Н.М. Амосов и др. «Энциклопедия кибернетики». Киев. 1975 г.)

Субъективная (семантическая,смысловая, вторичная) информация – смысловое содержание объективной информации об объектах и процессах материального мира, сформированное сознанием человека с помощью смысловых образов (слов, образов и ощущений) и зафиксированное на каком-либо материальном носителе. Человеку свойственно субъективное восприятие информации через некоторый набор ее свойств: важность, достоверность, своевременность, доступность, «боль­ше-меньше» и т.д. Использование терминов «больше информации» или «меньше информации» подразумевает некую возможность ее измерения (или хотя бы коли­чественного соотнесения). При субъективном восприятии измерение информации возможно лишь в виде установления некоторой субъективной порядковой шкалы для оценки «больше-меньше». При объективном измерении количества информа­ции следует заведомо отрешиться от восприятия ее с точки зрения субъективных свойств, примеры которых перечислены выше. Более того, не исключено, что не всякая информация будет иметь объективно измеряемое количество.

В бытовом смысле информация — сведения об окружающем мире и протекающих в нем процессах, воспринимаемые человеком или специальным устройством.{см.С.И.Ожегов. "Словарь русского языка". Москва. 1990г.). В простейшем бытовом понимании с термином «информация» обычно ассоции­руются некоторые сведения, данные, знания и т.п. Информация передается в виде сообщений, определяющих форму и представление передаваемой информации. При­мерами сообщений являются музыкальное произведение; телепередача; команды регулировщика на перекрестке; текст, распечатанный на принтере; данные, полу­ченные в результате работы составленной вами программы, и т.д. При этом предполагается, что имеются «источник информации» и «получатель информации». Сообщение от источника к получателю передается посредством какой-нибудь среды, являющейся в таком случае «каналом связи». Так, при передаче речевого сообщения в качестве канала связи можно рассматривать воздух, в котором распространяются звуковые волны, а в случае передачи письменного сообщения (на­пример, текста, распечатанного на принтере) каналом сообщения можно считать лист бумаги, на котором напечатан текст. Чтобы сообщение было передано от источника к получателю, необходима не­которая материальная субстанция — носитель информации. Сообщение, передава­емое с помощью носителя, — сигнал. В общем случае сигнал — это изменяющийся во времени физический процесс. Та из характеристик процесса, которая использу­ется для представления сообщений, называется параметром сигнала. В случае, когда параметр сигнала принимает последовательное во времени ко­нечное число значений (при этом все они могут быть пронумерованы), сигнал на­зывается дискретным, а сообщение, передаваемое с помощью таких сигналов, — дискретным сообщением. Если же источник вырабатывает непрерывное сообще­ние (соответственно параметр сигнала — непрерывная функция от времени), то соответствующая информация называется непрерывной. Примеры дискретного со­общения — текст книги, непрерывного сообщения — человеческая речь, переда­ваемая модулированной звуковой волной; параметром сигнала в последнем случае является давление, создаваемое этой волной в точке нахождения приемника — человеческого уха. Непрерывное сообщение может быть представлено непрерывной функцией, заданной на некотором интервале. Непрерывное сообщение можно преобразовать в дискретное (такая процедура называется дискретизацией). Из бесконечного мно­жества значений параметра сигнала выбирается их определенное число, которое приближенно может характеризовать остальные значения. Для этого область опре­деления функции разбивается на отрезки равной длины и на каждом из этих от­резков значение функции принимается постоянным и равным, например, среднему значению на этом отрезке. В итоге получим конечное множество чисел. Таким образом, любое непрерывное сообщение может быть представлено как дискрет­ное, иначе говоря, последовательностью знаков некоторого алфавита. Возможность дискретизации непрерывного сигнала с любой желаемой точно­стью (для возрастания точности достаточно уменьшить шаг) принципиально важна с точки зрения информатики. Компьютер — цифровая машина, т.е. внутреннее представление информации в нем дискретно. Дискретизация входной информа­ции (если она непрерывна) позволяет сделать ее пригодной для компьютерной обработки.

Понятие «информация» является одним из фундаментальных в современной науке вообще и базовым для информатики. Информацию наряду с веществом и энергией рассматривают в качестве важнейшей сущности мира, в котором мы живем. Однако если задаться целью формально определить понятие «информация», то сделать это будет чрезвычайно сложно. В настоящее время не существует единого определения информации как научного термина. С точки зрения различных областей знания, данное понятие описывается своим специфическим набором признаков. Согласно концепции К.Шеннона, информация - это снятая неопределенность, т.е. сведения, которые должны снять в той или иной степени существующую у потребителя до их получения неопределенность, расширить его понимание объекта полезными сведениями.


Содержание

Единицы количества информации

Определить понятие «количество информации» довольно сложно. В решении этой проблемы существуют два основных подхода. Исторически они возникли почти одно­временно. В конце 40-х годов XX века один из основоположников кибернетики, амери­канский математик Клод Шеннон, развил вероятностный подход к измерению количества информации, а работы по созданию ЭВМ привели к «объемному» подходу.


Вероятностный подход

Рассмотрим в качестве примера опыт, связанный с бросанием правильной иг­ральной кости, имеющей N граней. Результаты данного опыта могут быть следую­щие: выпадение грани с одним из следующих знаков: 1, 2, ..., N.

Введем в рассмотрение численную величину, измеряющую неопределенность — энтропию (обозначим ее Н). Согласно развитой теории, в случае равновероятного выпадания каждой из граней величины N и Н связаны между собой формулой Хартли

LateX

Важным при введении какой-либо величины является вопрос о том, что при­нимать за единицу ее измерения. Очевидно, H будет равно единице при N = 2. Иначе говоря, в качестве единицы принимается количество информации, связанное с проведением опыта, состоящего в получении одного из двух равновероят­ных исходов (примером такого опыта может служить бросание монеты, при кото­ром возможны два исхода: «орел», «решка»). Такая единица количества информа­ции называется «бит».

В случае, когда вероятности Рi результатов опыта (в примере, приведенном выше, — бросания игральной кости) неодинаковы, имеет место формула Шеннона

LateX

В случае равновероятности событий LateX, формула Шеннона переходит в формулу Хартли.

В качестве примера определим количество информации, связанное с появлени­ем каждого символа в сообщениях, записанных на русском языке. Будем считать, что русский алфавит состоит из 33 букв и знака «пробел» для разделения слов. По формуле Хартли

LateXбит

Однако в словах русского языка (равно как и в словах других языков) различ­ные буквы встречаются неодинаково часто. Ниже приведена таблица вероятностей частоты употребления различных знаков русского алфавита, полученная на осно­ве анализа очень больших по объему текстов.

Объемный подход

В двоичной системе счисления знаки 0 и 1 называют битами (bit — от английского выражения Binary digiTs — двоичные цифры). В компьютере бит является наименьшей возможной единицей информации. Объем информации, записанной двоичными зна­ками в памяти компьютера или на внешнем носителе информации, подсчитывается просто по числу требуемых для такой записи двоичных символов. При этом, в частно­сти, невозможно нецелое число битов (в отличие от вероятностного подхода).

Для удобства использования введены и более крупные, чем бит, единицы ко­личества информации. Так, двоичное слово из восьми знаков содержит один байт информации. 1024 байта образуют килобайт (Кбайт), 1024 килобайта — мегабайт (Мбайт), а 1024 мегабайта — гигабайт (Гбайт).

Между вероятностным и объемным количеством информации соотношение неоднозначное. Далеко не всякий текст, записанный двоичными символами, до­пускает измерение объема информации в вероятностном (кибернетическом) смыс­ле, но заведомо допускает его в объемном. Далее, если некоторое сообщение до­пускает измеримость количества информации в обоих смыслах, то это количество не обязательно совпадает, при этом кибернетическое количество информации не может быть больше объемного.

В прикладной информатике практически всегда количество информации пони­мается в объемном смысле.


Классификация информации

Информацию можно разделить на виды по разным критериям.

Способ восприятия: Визуальная — воспринимаемая органами зрения. Аудиальная — воспринимаемая органами слуха. Тактильная — воспринимаемая тактильными рецепторами. Обонятельная — воспринимаемая обонятельными рецепторами. Вкусовая — воспринимаемая вкусовыми рецепторами.

Форма представления: Текстовая — передаваемая в виде символов, предназначенных обозначать лексемы языка. Числовая — в виде цифр и знаков, обозначающих математические действия. Графическая — в виде изображений, предметов, графиков. Звуковая — устная или в виде записи передача лексем языка аудиальным путём.

Предназначение: Массовая — содержит тривиальные сведения и оперирует набором понятий, понятным большей части социума. Специальная — содержит специфический набор понятий, при использовании происходит передача сведений, которые могут быть не понятны основной массе социума, но необходимы и понятны в рамках узкой социальной группы, где используется данная информация. Личная — набор сведений о какой-либо личности, определяющий социальное положение и типы социальных взаимодействий внутри популяции.


Свойства информации

Качество информации — степень её соответствия потребностям потребителей. Свойства информации являются относительными, так как зависят от потребностей потребителя информации.

Объективность информации характеризует её независимость от чьего-либо мнения или сознания, а также от методов получения. Более объективна та информация, в которую методы получения и обработки вносят меньший элемент субъективности.

Информацию можно считать полной, когда она содержит минимальный, но достаточный для принятия правильного решения набор показателей. Как неполная, так и избыточная информация снижает эффективность принимаемых на основании информации решений.

Достоверность - верность информации, не вызывающая сомнений. Объективная информация всегда достоверна, но достоверная информация может быть как объективной, так и субъективной. Причинами недостоверности могут быть: преднамеренное искажение (дезинформация); непреднамеренное искажение субъективного свойства; искажение в результате воздействия помех; ошибки фиксации информации. В общем случае достоверность информации достигается: указанием времени свершения событий, сведения о которых передаются; сопоставлением данных, полученных из различных источников; своевременным вскрытием дезинформации; исключением искажённой информации и др.

Адекватность — степень соответствия смысла реально полученной информации и её ожидаемого содержимого . Например задан вопрос - "Сколько у человека пальцев на руке?" "На руке у человека пять пальцев" - ответ достоверный и адекватный, "У человека две руки" - ответ достоверный но неадекватный.

Доступность информации — мера возможности получить ту или иную информацию.

Актуальность информации — это степень соответствия информации текущему моменту времени.

Эмоциональность — свойство информации вызывать различные эмоции у людей. Это свойство информации используют производители медиаинформации. Чем сильнее вызываемые эмоции, тем больше вероятности обращения внимания и запоминания информации.

Как ни важно измерение информации, нельзя сводить к нему все связанные с этим понятием проблемы. При анализе информации социального (в широким смыс­ле) происхождения на первый план могут выступить такие ее свойства, как истинность, своевременность, ценность, полнота и т.д. Их невозможно оценить в терминах «уменьшение неопределенности» (вероятностный подход) или числа сим­волов (объемный подход). Обращение к качественной стороне информации поро­дило иные подходы к ее оценке. При аксиологическом подходе стремятся исходить из ценности, практической значимости информации, т.е. из качественных харак­теристик, значимых в социальной системе. При семантическом подходе информа­ция рассматривается с точки зрения как формы, так и содержания. При этом информацию связывают с тезаурусом, т.е. полнотой систематизированного набора данных о предмете информации. Эти подходы не исключают количе­ственного анализа, но он становится существенно сложнее и должен базироваться на современных методах математической статистики.


Понятие информации

Понятие информации нельзя считать лишь техническим, междисциплинарным и даже наддисциплинарным термином. Информация — это фундаментальная фи­лософская категория. Дискуссии ученых о философских аспектах информации на­дежно показали несводимость информации ни к одной из этих категорий. Концеп­ции и толкования, возникающие на пути догматических подходов, оказываются слишком частными, односторонними, не охватывающими всего объема этого по­нятия.

Попытки рассмотреть категорию информации с позиций основного вопроса философии привели к возникновению двух противостоящих концепций — функ­циональной и атрибутивной. «Атрибутисты» квалифицируют информацию как свой­ство всех материальных объектов, т.е. как атрибут материи. «Функционалисты» свя­зывают информацию лишь с функционированием сложных, самоорганизующихся систем.

Можно попытаться дать философское определение информации с помощью указания на связь определяемого понятия с категориями отражения и активности. Информация есть содержание образа, формируемого в процессе отражения. Активность входит в это определение в виде представления о формировании некоего образа в процессе отражения некоторого субъект-объектного отношения. При этом не требуется указания на связь информации с материей, поскольку как субъект, так и объект процесса отражения могут принадлежать как к материальной, так и к духовной сфере социальной жизни. Однако существенно подчеркнуть, что матери­алистическое решение основного вопроса философии требует признания необхо­димости существования материальной среды — носителя информации в процессе такого отражения. Итак, информацию следует трактовать как имманентный (неотъемлемо присущий) атрибут материи, необходимый момент ее самодвижения и саморазвития. Эта категория приобретает особое значение применительно к высшим формам движения материи — биологической и социальной.

Известно большое количество работ, посвященных физической трактовке ин­формации. Эти работы в значительной мере построены на основе аналогии форму­лы Больцмана, описывающей энтропию статистической системы материальных частиц, и формулы Хартли. Соответствующие материалы можно найти в литерату­ре, отраженной в приведенном ниже перечне.

Информацию следует считать особым видом ресурса, при этом имеется в виду толкование «ресурса» как запаса неких знаний материальных предметов или энер­гетических, структурных или каких-либо других характеристик предмета. В отличие от ресурсов, связанных с материальными предметами, информационные ресурсы являются неистощимыми и предполагают существенно иные методы воспроизве­дения и обновления, чем материальные ресурсы. В связи с таким взглядом цент­ральными становятся следующие свойства информации: запоминаемость, передаваемость, преобразуемость, воспроизводимость, стираемостъ.

Подводя итог сказанному, отметим, что предпринимаются (но отнюдь не за­вершены) усилия ученых, представляющих самые разные области знания, пост­роить единую теорию, которая призвана формализовать понятие информации и информационного процесса, описать превращения информации в процессах са­мой разной природы. Движение информации есть сущность процессов управле­ния, которые суть проявление имманентной активности материи, ее способности к самодвижению. С момента возникновения кибернетики управление рассматрива­ется применительно ко всем формам движения материи, а не только к высшим (биологической и социальной). Многие проявления движения в неживых — искусственных (технических) и естественных (природных) системах также обладают общими признаками управления, хотя их исследуют в химии, физике, механике в энергетической, а не в информационной системе представлений. Информационные аспекты в таких системах составляют предмет новой междисциплинарной на­уки — синергетики.

Высшей формой информации, проявляющейся в управлении в социальных систе­мах, являются знания. Это наддисциплинарное понятие, широко используемое в пе­дагогике и исследованиях по искусственному интеллекту, также претендует на роль важнейшей философской категории. В философском плане познание следует рассмат­ривать как один из функциональных аспектов управления. Такой подход открывает путь к системному пониманию генезиса процессов познания, его основ и перспектив.


Данные, информация и знания

К базовым понятиям, которые используются в экономической информатике, относятся: данные, информация и знания. Эти понятия часто используются как синонимы, однако между этими понятиями существуют принципиальные различия.

Термин данные происходит от слова data - факт, а информация (informatio) означает разъяснение, изложение, т.е. сведения или сообщение.

Данные - это совокупность сведений, зафиксированных на определенном носителе в форме, пригодной для постоянного хранения, передачи и обработки. Преобразование и обработка данных позволяет получить информацию.

Информация - это результат преобразования и анализа данных. Отличие информации от данных состоит в том, что данные - это фиксированные сведения о событиях и явлениях, которые хранятся на определенных носителях, а информация появляется в результате обработки данных при решении конкретных задач. Например, в базах данных хранятся различные данные, а по определенному запросу система управления базой данных выдает требуемую информацию.

Существуют и другие определения информации, например, информация – это сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые уменьшают имеющуюся о них степень неопределенности, неполноты знаний.

Знания – это зафиксированная и проверенная практикой обработанная информация, которая использовалась и может многократно использоваться для принятия решений.

Знания – это вид информации, которая хранится в базе знаний и отображает знания специалиста в конкретной предметной области. Знания – это интеллектуальный капитал.

Формальные знания могут быть в виде документов (стандартов, нормативов), регламентирующих принятие решений или учебников, инструкций с описанием решения задач. Неформальные знания – это знания и опыт специалистов в определенной предметной области.

Необходимо отметить, что универсальных определений этих понятий (данных, информации, знаний) нет, они трактуются по-разному. Принятия решений осуществляются на основе полученной информации и имеющихся знаний.

Принятие решений – это выбор наилучшего в некотором смысле варианта решения из множества допустимых на основании имеющейся информации. Взаимосвязь данных, информации и знаний в процессе принятия решений представлена на рисунке.

Взаимосвязь данных, информации и знаний в процессе принятия решений

Для решения поставленной задачи фиксированные данные обрабатываются на основании имеющихся знаний, далее полученная информация анализируется с помощью имеющихся знаний. На основании анализа, предлагаются все допустимые решения, а в результате выбора принимается одно наилучшее в некотором смысле решение. Результаты решения пополняют знания.

В зависимости от сферы использования информация может быть различной: научной, технической, управляющей, экономической и т.д. Для экономической информатики интерес представляет экономическая информация.


Литература

  1. Могилев А.В. Практикум по информатике: Учеб. пособие для студ. высш. учеб. заведений/А.В.Могилев, Н.И.Пак, Е.К.Хеннер; Под ред. Е.К.Хеннера. - 2-е изд., стер. - М.: Издательский центр "Академия", 2005. - 608 с.
Просмотры
Инструменты

Besucherzahler russian mail order brides
счетчик посещений
Rambler's Top100
Лингафонные кабинеты  Интерактивные доски  Интерактивная приставка Mimio Teach