Хронология развития теории информации

Хронология событий, связанных с теорией информации, сжатием данных, кодами коррекции ошибок и смежных дисциплин:

  • 1924  — Гарри Найквист рассуждает о квантификации «Интеллекта» и скорости, на которой это может быть передано системой коммуникации.
  • 1927  — Джон фон Нейман определяет фон Неймановскую энтропию, расширяя Гиббсовскую энтропию в квантовой механике.
  • 1928  — Ральф Хартли представляет формулу Хартли как логарифм числа возможных сообщений, с информацией, передаваемой, когда приёмник (получатель, ресивер) может отличить одну последовательность символов от любой другой (независимо от любого связанного значения).
  • 1929  — Лео Силард анализирует демона Максвелла, показывают, как двигатель Szilard может иногда преобразовывать информацию в извлечение полезной работы.
  • 1940  — Алан Тьюринг представляет deciban как единицу измерения информации в немецкой машине Энигма с настройками, зашифрованными процессом Banburismus.
  • 1953  — опубликован Sardinas–Patterson algorithm.
  • 1966  — опубликована статья Дэвида Форнея Concatenated error correction code.
  • 1972  — опубликована статья о Justesen code.
  • 1973  — Дэвид Слепиан и Джек Волф открывают и доказывают Код Слепиана-Вольфа, кодирующего пределы распределённого источника кодирования.
  • 1993  — Клод Берроу, Алэйн Главиукс и Punya Thitimajshima вводят понятие Турбо-кодов.
  • 1995  — Benjamin Schumacher предложил термин Кубит.
  • 1998  — предложен Fountain code.
  • 2001  — описан алгоритм Statistical Lempel–Ziv.

Вклад отечественных учёных в теорию информации

  • Понятие марковской цепи принадлежит русскому математику А. А. Маркову, чьи первые статьи по этому вопросу при решении лингвистических проблем были опубликованы в 19061908
  • 1947  — В. А. Котельниковым создана теория потенциальной помехоустойчивости. Теория потенциальной помехоустойчивости давала возможность синтеза оптимальных устройств обработки любых сигналов в присутствии помех. Она имела два раздела — теория приёма дискретных и аналоговых сигналов.
  • 1950  — При сравнении конкретных кодов с оптимальными широко используются результаты Р. Р. Варшамова. Интересные новые границы для возможностей исправления ошибок установлены В. И. Левенштейном и В. М. Сидельниковым.
  • 1956  — Были нужны работы математического уровня, закладывающие математический фундамент теории информации. Задача была решена известным докладом А. Н. Колмогорова на сессии АН СССР, посвященной автоматизации производства. Первые пионерские работы А. Я. Хинчина были посвящены доказательству основных теорем теории информации для дискретного случая.
  • 1957  — при исследовании А. Н. Колмогоровым знаменитой проблемы Гильберта о суперпозициях он не только показал возможность представления любой непрерывной функции в виде суперпозиции непрерывных же функций трёх переменных, но и создал метод, позволивший его ученику В. И. Арнольду понизить число переменных до двух и тем самым решить упомянутую проблему.
  • 1958  — А. Н. Колмогоров. Новый метрический инвариант транзитивных динамических систем и автоморфизмов пространств Лебега.— ДАН СССР. Очень важные и плодотворные возможности применения понятия энтропии к проблеме изоморфизма динамических систем.

Отметим также работы китайского учёного Ху Го Дина, стажировавшегося в то время в Московском университете.

  • 1961  — Ху Го Дин. Три обратные теоремы к теореме Шеннона в теории информации.
  • 1962  — Ху Го Дин. Об информационной устойчивости последовательности каналов. Теория вероятностей и её применения.
  • 1965  — вышел первый номер журнала «Проблемы передачи информации», созданного по инициативе А. А. Харкевича.
  • 1966  — Стратонович Р. Л., Гришанин Б. А. « Ценность информации при невозможности прямого наблюдения оцениваемой случайной величины».
  • 1968  — Стратонович Р. Л., Гришанин Б. А. «Игровые задачи с ограничениями информационного типа».
  • 1972  — Солев В. Н. О среднем на единицу времени количестве информации, содержащейся в одном гауссовском стационарном процессе относительно другого.
This article is issued from Wikipedia. The text is licensed under Creative Commons - Attribution - Sharealike. Additional terms may apply for the media files.