С одной стороны, вот она размерность. Мы её и правда нашли (хотя, конечно, всё вышесказанное нужно делать честно, а не как я сейчас).
И этим занимался Безикович — тот самый, который решил задачу Какейя о развороте отрезка: что есть (невыпуклая) фигура сколь угодно малой площади, внутри которой можно развернуть отрезок.
(У Марка на слайде в знаменателе логарифм 3, а не логарифм 2 — потому что он вместо отрезка работает с канторовым множеством: его точки тоже можно закодировать 0 и 1, или 0 и 2 — просто взяв троичную запись.)
Математические байки
И этим занимался Безикович — тот самый, который решил задачу Какейя о развороте отрезка: что есть (невыпуклая) фигура сколь угодно малой площади, внутри которой можно развернуть отрезок.
(Да, в качестве отступления в сторону — об этой задаче и конструкции можно прочитать в Кванте —
http://kvant.mccme.ru/1973/04/o_vrashchenii_otrezka.htm )
http://kvant.mccme.ru/1973/04/o_vrashchenii_otrezka.htm )
Математические байки
С одной стороны, вот она размерность. Мы её и правда нашли (хотя, конечно, всё вышесказанное нужно делать честно, а не как я сейчас).
Так вот — с другой стороны, тут появляется выражение (-p log p), которое кому-то может быть знакомо из физики, а кому-то из информатики.
И мне в этом месте хочется сказать слова "энтропия Шеннона".
Представим себе, что на Марсе у нас стоит марсоход, и каждую секунду что-то измеряет. Например, ловит космические лучи — таким образом, разные измерения независимы друг от друга. Но шанс, что что-то прилетит, очень маленький, поэтому таблица из 0 и 1 (не прилетело/прилетело) состоит в основном из нулей, вероятность p единицы очень маленькая.
Как нам передать результаты наблюдений на Землю?
Представим себе, что на Марсе у нас стоит марсоход, и каждую секунду что-то измеряет. Например, ловит космические лучи — таким образом, разные измерения независимы друг от друга. Но шанс, что что-то прилетит, очень маленький, поэтому таблица из 0 и 1 (не прилетело/прилетело) состоит в основном из нулей, вероятность p единицы очень маленькая.
Как нам передать результаты наблюдений на Землю?
Можно, конечно, так и передать, нулями и единицами, но странно забивать канал нулями.
Так вот — при большом числе наблюдений нам понадобится примерно (-p log p - (1-p) log (1-p)) бит в расчёте на одно измерение, чтобы (честно) передать результаты.
Проще всего это сделать так — если мы провели n измерений, то сначала передаём m — число единиц. На это нам нужно log_2(n) бит, что по сравнению с n — копейки.
Теперь, когда мы знаем число единиц — у нас есть C_n^m разных вариантов, и на самом деле, они все равновероятны. Поэтому понятно, что меньше, чем log_2 (C_n^m) битами, мы не обойдёмся. А чтобы передать за это число бит — например, можно (мысленно) лексикографически упорядочить все C_n^m последовательностей из m единиц и (n-m) нулей, и заметить, что соответствие между номером последовательности и самой последовательностью несложно вычисляется в обе стороны.
Чтобы закончить позавчерашнюю байку — если у нас в эксперименте будут не 0 и 1, а несколько разных исходов 1,...,k — все со своими вероятностями p_1,...,p_k, — то вместо биномиального коэффициента будет мультиномиальный, из n по набору (m_1,...,m_k) того, сколько раз какой исход выпал.
Опять применив формулу Стирлинга и посмотрев на экспоненциальную часть, мы получим произведение (n/m_i)^(m_i), и его логарифм будет равен
n * (-\sum p_i log p_i).
n * (-\sum p_i log p_i).
Вот мы и получили знаменитую формулу для энтропии — число бит для передачи результата в расчёте на один эксперимент (или, по-другому, какая пропускная способность канала нам нужна):
H = - \sum_i p_i \log p_i.
H = - \sum_i p_i \log p_i.
Для аккуратности — если говорить о битах, то логарифм нужно брать двоичным, а в динамических системах и в физике его обычно берут натуральным.
Математические байки
Вот мы и получили знаменитую формулу для энтропии — число бит для передачи результата в расчёте на один эксперимент (или, по-другому, какая пропускная способность канала нам нужна): H = - \sum_i p_i \log p_i.
Ещё на эту формулу можно посмотреть так: это математическое ожидание ( = результат усреднения) логарифма вероятности того исхода, которое у нас в результате одного эксперимента получается.
Так что можно сказать, что логарифм вероятности пронаблюдённого (случившегося) исхода — это та информация, которую мы в результате эксперимента получаем.
В какой-то из популярных книжек (ещё времён, когда телефоны были проводными) мне попадалось сравнение
"Если Вы снимете трубку звонящего телефона и услышите "Алло!", Вы не удивитесь. Гораздо больше Вы удивитесь, если Вас вместо этого ударит током."
"Если Вы снимете трубку звонящего телефона и услышите "Алло!", Вы не удивитесь. Гораздо больше Вы удивитесь, если Вас вместо этого ударит током."
Математические байки
Вопрос тут был вполне естественный — но я расскажу сначала его упрощённую версию. Можно спрашивать, как себя ведут типичные точки отрезка. Но тут ответ простой — если считать 0 и 1 в двоичной записи случайной точки отрезка, то для типичной точки их будет…
==
Ну и возвращаясь к докладу Марка Полликотта (а то я про Безиковича и долю единиц рассказал, а про центральный сюжет ещё нет).
Ну и возвращаясь к докладу Марка Полликотта (а то я про Безиковича и долю единиц рассказал, а про центральный сюжет ещё нет).