www.toehelp.ru

Решение задач по ТОЭ, ОТЦ, Высшей математике, Физике, Программированию ...

/ / / Лекция 1. Информатика и информация

Цель и задачи курса

Цель курса: научить студента решению инженерных задач с помощью персонального компьютера (ПК).

Задачи курса:

  • получить представление об информатике и информации;
  • изучить структуру ПК и назначение его элементов;
  • изучить основные операции технологии программирования;
  • изучить язык Турбо Паскаль и его графические возможности;
  • изучить численные методы решения инженерных задач;
  • получить представление о математическом моделировании;
  • получить представление о базах данных.

Информатика - это наука, изучающая законы и методы получения, переработки, хранения и передачи информации с помощью ПК.

Информация – сведения о ком-то или о чем-то, представленные в форме знаков и символов.

Для измерения количества информации используют 1 бит – один символ двухбуквенного алфавита, состоящего из нулей и единиц {0, 1}.

Кроме этого используются также следующие единицы:

1 байт=8 бит,

1024 байт=1 Кбайт,

1024 Кбайт=1 Мбайт,

1024 Мбайт=1 Гбайт.

В 1948 году Шенон предложил следующий способ измерения количества информации. Пусть X - случайная величина, принимающая значения x1, x2, x3,…, xn c вероятностью p1, p2, p3,…, pn, и Y- случайная величина, принимающая значения y1, y2, y3,…, yn c вероятностью q1, q2, q3,…, qn. Тогда информация I(X,Y) относительно Y, содержащаяся в X, определяется формулой

где pij - вероятность совмещения событий Х = xi и Y= yj.

Свойства информации:

  1. I(X, Y)≥0,
    I(X, Y) = 0 при pij = pi qj т.е. X, Y – независимые события,I(X, Y) = I(Y, X),
  2. I(X, Y) = H(X) + H(Y) – H(X, Y)
    где H – информационная энтропия,
  3. H(X) = ∑ pi log2 (1/pi),
    H(Y) = ∑ qj log2 (1/qj),
    H(X, Y) = ∑ pij log2 (1/pij).
    Величина энтропии показывает среднее число знаков, необходимых для различия (записи) возможных значений случайной величины. Это позволяет понять роль количества информации при хранении информации в запоминающих устройствах.

Если величины X,Y – независимые, то для записи Х требуется в среднем H(X) двоичных знаков, для записи Y – H(Y), а для пары (X,Y) – H(X)+H(Y).

Если величины X,Y зависимы, то среднее число двоичных знаков оказывается меньше H(X,Y)=H(X)+H(Y)-I(X,Y).

Области применения ПК

  1. Научные и инженерные расчеты.
  2. Управление и автоматизация технологическими процессами (оборона, энергетика, космос и др.).
  3. САПР - система автоматизированного проектирования.
  4. Распознавание образов.
  5. Базы данных.
  6. Виртуальное пространство (гиперпространство).
  7. Internet: Internet дом, Е-mail.
  8. Музыка, кино, реклама, мультипликация, телевидение, издательская деятельность и т.д.
  9. Нейрокомпьютеры.

Вопросы для контроля.

  1. Чем отличается информатика от информации?
  2. Как измерить количество информации?
  3. Что такое информационная энтропия?
  4. Какое минимальное количество информации (бит) необходимо для угадывания одного выбранного человека из 32?

Далее...

Социальные сети  

Реклама

Социальные сети