birmaga.ru
добавить свой файл

1 2 ... 10 11










  1. Информация. Категории и свойства информации. Энтропия и количество информации, единицы измерения информации. Виды и свойства информации.


Информация - это:

  • данные, определенным образом организованные, имеющие смысл, значение и ценность для своего потребителя и необходимая для принятия им решений, а также для реализации других функций и действий;

  • совокупность знаний о фактических данных и зависимостях между ними, являющихся одним из видов ресурсов, используемых человеком в трудовой деятельности и быту;

  • сведения о лицах, предметах, фактах, событиях, явлениях и процессах независимо от формы представления;

  • сведения, неизвестные до их получения;

  • значение, приписанное данным;

  • Средство и Форма передачи знаний и опыта, сокращающая неопределенность и случайность и неосведомленность;

  • обобщенный термин, относящийся к любым сигналам, звукам, знакам и т.д., которые могут передаваться, приниматься, записываться и/или храниться.

Единицы измерения информации:

1 байт – 8 бит; 1 Кбайт – 1024 байт; 1 Мбайт – 1024 Кбайт; 1 Гбайт – 1024 Мбайт
Информации присущи следующие свойства.

  1. Атрибутивные свойства - это те свойства, без которых информация не существует: неотрывность информации от физического носителя и языковая природа информации; дискретность; непрерывность.

  2. Прагматические свойства - это те свойства, которые характеризуют степень полезности информации для пользователя, потребителя и практики. Проявляются в процессе использования информации. К данной категории свойств относится: смысл и новизна; полезность; ценность; полнота; достоверность; доступность.

  3. Динамические свойства - это те свойства, которые характеризуют изменение информации во времени: рост информации; старение.

Информация имеет 2 формы:

- дискретную - это последовательность символов, характеризующая прерывистую, изменяющуюся величину (количество дорожно-транспортных происшествий, количество тяжких преступлений и т.п.);


- аналоговую - это величина, характеризующая процесс, не имеющий перерывов или промежутков (температура тела человека, скорости автомобиля на определенном участке пути и т.п.).
Количеством информации называют числовую характеристику сигнала, отражающую ту степень неопределенности (неполноту знаний), которая исчезает после получения сообщения в виде данного сигнала. Эту меру неопределенности в теории информации называют энтропией. Если в результате получения сообщения достигается полная ясность в каком-то вопросе, говорят, что была получена полная или исчерпывающая информация и необходимости в получении дополнительной информации нет. И, наоборот, если после получения сообщения неопределенность осталась прежней, значит, информации получено не было (нулевая информация).

Связь между количеством информации и числом состояний системы устанавливается формулой Хартли:

i=log2N, где i — количество информации в битах; N —. число возможных состояний. Ту же формулу можно представить иначе:

Энтропия – степень неопределенности сообщения. Она есть функция вероятности. Если вероятность равна 1, то энтропия равна 0, если вероятность равна 0, то энтропия – бесконечность.

Количество информации, полученное как разность между начальной энтропией (до получения сообщения) и конечной энтропией (после получения сообщения), называют отрицательной энтропией.

Единицей измерения энтропии и количества информации является бит (двоичная единица) – количество информации, получаемое при выборе двух равновероятных, равновозможных сообщений.

Носителем информации является сообщение. В теории информации приводится следующее определение количества информации в сообщении1:

[информация, содержащаяся в сообщении] =

вероятность сообщаемого события у приемника после приема сообщения


= log [---------------------------------------------------------------------------------------------------]

вероятность сообщаемого события у приемника до приема сообщения


  1. Обработка инф-ии. Операции над инф-ей. Понятие прикладной информатики. Понятие информационной технологии.

Прикладная информатика – это технология использования компьютерной техники для реализации конкретных приложений информатики ( в нашем случае в экономике).

Развитие прикладной информатики прошло три этапа:

1) - решение задач прямого счета;

2) – создание информационной поддержки принятия решений – этап, предусматривающий использование традиционных экономико-математических методов и моделей для решения экономических и других видов задач;

3) – современный – поиск методов решения интеллектуальных задач, с применением новых информационных и интеллектуальных технологий, с созданием экспертных систем, с использованием эвристических методов исследуемых ситуаций, баз данных и баз знаний, машинного вывода результатов исследования конкретных производственно-экономических ситуаций.

Современный экономист-профессионал должен владеть знаниями в области информатики и практическими навыками использования вычислительной техники, систем связи и передачи информации, знать основы информационных технологий, уметь оценивать точность и полноту информации, влияющей на принятие управленческих решений.



следующая страница >>