Бобер-основатель
Моя девушка попросила сегодня решить ей задачу по информатике:
"Сообщение «курсанты изучали Visual Basic» несет 7 бита(бит) информации. Вероятность изучения Pascal в 16 раз меньше. Количество бит информации в сообщении «курсанты изучали Pascal» равно"?

читать дальше

Кто считает себя достаточно крутым чтобы решить ее?

P.S. Человек стоит на асфальте, если ему ударить монтировкой по голове, развяжутся ли шнурки?

@темы: Бред, Учеба

Комментарии
17.06.2011 в 16:23

...в Австралии есть такой зверек - вомбат. Кастанеда об этом ничего не писал. серый котейка в ботинок...
Это случайно не кафедра по борьбе с наркотиками? Тогда девушка забыла принести вам "дополнительные материалы", которые необходимо воскурить перед решением задачи)
можешь сказать что ее не смогли решить 5 спецов)))

З.Ы. Если ударить достаточно сильно, в морге шнурки обязательно развяжутся)
17.06.2011 в 16:37

Люблю
I = log2 (1/p)
log2 (1/p)=7
1/p=2^7=128
p=1/128
p/16=8
log2 8=3 бита
17.06.2011 в 21:58

Бобер-основатель
drumling А у кого развяжутся?

Пятый эльф в седьмом ряду Мы по подсказке Графа тоже узнали про существование формулы Хартли и Шеннона I = - Sum рi log2 рi,, один только косяк, по ней мельчайшая неделимая единица информации - бит (1-0, истина-ложь, есть сигнал-нет сигнала и т.д.) - может иметь дробную часть. Потому это бред пары обкурышей.

Задача: Шарик находится в одной из трех урн: А, В или С. Определить сколько бит информации содержит сообщение о том, что он находится в урне В.

Решение.

Такое сообщение содержит I = log2 3 = 1,585 бита информации.


А теперь вспомним немного теории кодирования. Стандартная таблица символов ascii кодирует 1 символ в восемь бит. Как фраза из четырех слов может занять 7 бит?
UTF-8 1 кодирует символ в 2 байта = 2*8 бит = 16 бит. Если вы мне объясните как сжать фразу из 29 символов в 7 бит, я обещаю написать архиватор и поделиться пополам Нобелевской премией.
18.06.2011 в 00:18

Люблю
Просто существуют разные подходы к измерению информации. Вероятностный подразумевает возможность деления бита, объемный - нет.
Почитай школьный учебник.
18.06.2011 в 03:30

...в Австралии есть такой зверек - вомбат. Кастанеда об этом ничего не писал. серый котейка в ботинок...
drumling А у кого развяжутся?
У того кому по башке стукнули, когда его привезут в морг, шнурки кем-нибудь развяжутся, причем он сам к ним не притронется)))
я сегодя добрый)))

какая-то мутная задача... нам, быдлокодерам, непонять...
20.06.2011 в 22:35

Бобер-основатель
Пятый эльф в седьмом ряду Делить не делимое, как это вероятностно.

drumling Куда нам до таких высоких материй. :lol:
20.06.2011 в 22:58

Люблю
Да нет, все логично.
Бит - это количество информации, уменьшающее неопределенность в два раза. Если неопределенность уменьшилась в нецелое число раза, вот и получаются части бита.
Соответственно, в объемном подходе бит - 1 или 0, что уменьшает неопределенность ровно в два раза.
20.06.2011 в 23:34

Бобер-основатель
Пятый эльф в седьмом ряду Ага, в школе еще говорили, что на ноль делить нельзя, а у треугольника сумма углов равна 180 градусов.
Ты мне скажи как можно задать вопрос требующий ответа "да" или "нет" 1,585 раз?
20.06.2011 в 23:58

Люблю
А тут не да или нет.
А например, какой свет загорелся на светофоре - зеленый, желтый, красный? Это тоже информация. И тоже уменьшает неопределенность.Ее тоже можно измерить.
Кстати, а бывали еще троичные компьютеры, к примеру. И фибоначчиева система счисления. И сумма углов треугольника не всегда 180 градусов. Понавыдумывают же.
21.06.2011 в 16:06

...в Австралии есть такой зверек - вомбат. Кастанеда об этом ничего не писал. серый котейка в ботинок...
ох... боюсь что в бит троичную информацию никак не запихаешь, ибо его так и назвали бит, из за того, что би - 2.
для троичных компов нужен трит, или там троичный бит, или какое еще извращенное название. А в обычный человеческий бит ничего кроме 0 и 1 не запихаешь. Это все равно что спросить, какова плотность воды, а потом сказать, что неправильно, ведь мы имели ввиду "огненную воду", моглы бы и догадаться. Когда локальная групка людей берут общепринятое слово, и форсят свой локальный мем, пытаясь заместить это слово другим понятием, большинству неизвестным, это какое-то луркоебство получается.
Но в принципе никто не удивляется отсутствию логики в милицейских заданиях. Они же половина не справится, а половина - сильные, и запихают в бит все что угодно. А под пытками он себя еще и кубитом признает)))
21.06.2011 в 16:13

Люблю
Неее, бесполезно им что-нибудь объяснять. Все равно дальше таблицы умножения не поймут...
22.06.2011 в 12:18

Бобер-основатель
Пятый эльф в седьмом ряду А например, какой свет загорелся на светофоре - зеленый, желтый, красный? Это тоже информация. И тоже уменьшает неопределенность.Ее тоже можно измерить.
Ага можно, 2 бита.

а бывали еще троичные компьютеры,
Бывали, но там не биты. Вот там-то твоя задача будет иметь 1 троичный бит или какой-нибудь трит.

drumling Но в принципе никто не удивляется отсутствию логики в милицейских заданиях.
Но все-таки люди составляющие задание не должны давать заведомо ложные условия. Хотя структура эта печальная.
22.06.2011 в 13:01

Люблю
Ну упертые, блять...
22.06.2011 в 13:38

Бобер-основатель
Пятый эльф в седьмом ряду
Ну не в упертости дело, а в определении единицы измерения. Ты же не согласишься, если я придумаю новое определение метра.

Давай википедию почитаем:
По Шеннону[1]:
Бит — это двоичный логарифм вероятности равновероятных событий или сумма произведений вероятности на двоичный логарифм вероятности при равновероятных событиях; см. информационная энтропия.
Бит — базовая единица измерения количества информации, равная количеству информации, содержащемуся в опыте, имеющем два равновероятных исхода; см. информационная энтропия. Это тождественно количеству информации в ответе на вопрос, допускающий ответы «да» либо «нет» и никакого другого (то есть такое количество информации, которое позволяет однозначно ответить на поставленный вопрос).

Один разряд двоичного кода (двоичная цифра). Может принимать только два взаимоисключающих значения: да/нет, 1/0, включено/выключено, и т. п.

ru.wikipedia.org/wiki/%D0%91%D0%B8%D1%82

Отсюда вывод, два определения противоречат друг другу. Ну не возможно задать вопрос требующий ответа да/нет дробное число раз. Соответственно, это не просто разные подходы, это разные величины. Посмотрим что же такое Информационная энтропиия:
Информацио́нная энтропи́я — мера неопределённости или непредсказуемости информации, неопределённость появления какого-либо символа первичного алфавита. При отсутствии информационных потерь численно равна количеству информации на символ передаваемого сообщения.

Энтропия — это количество информации, приходящейся на одно элементарное сообщение источника, вырабатывающего статистически независимые сообщения.

ru.wikipedia.org/wiki/%D0%98%D0%BD%D1%84%D0%BE%...

Вывод: биты разные. Первый это некая абстрактная математическая величина, применяемая в разных теориях. Второй бит - практическая единица измерения. Но все же - они разные. Как минимум один непрерывный, другой дискретный.

Да, твой подход верный, он и имелся ввиду, это мы знаем. Но в данном задании, на мой взгляд, банально смешаны два разных определения бита.
22.06.2011 в 14:08

Люблю
*махнула рукой*
22.06.2011 в 14:57

Бобер-основатель
Я про тоже самое и говорю. Это разные единицы измерения.
Тут задача поставлена, что сообщение несет 7 бита(бит) информации. Тут либо нельзя применять "несет", либо "сообщение".
Вариант 1: Само сообщение является символом первичного алфавита. По сути неделимо для алфавита из таких сообщений, поэтому вероятность изучения Паскаля как языка курсантами тут абсолютно непричем. Даже допустим, что Pascal , это тоже символ этого алфавита. Тогда второе сообщение третий символ. В итоге, данные вероятности на Паскаль не влияют на второе сообщение.

Вариант 2: Первое сообщение состоит из двух символов "курсанты изучали " и "Visual Basic", "Pascal" тоже символ. Тогда у нас нет данных для вычислений "курсанты изучали " + "Pascal". т.к. нам ничего не известно о "первом символе" отдельно.

Короче это все философия. В для МВД это круто слишком вникать в такие подробности. Авторы задания просто узнали о такой формуле, придумали не корректное задание, сами того не осознавая.
22.06.2011 в 15:02

Люблю
алфавит тут причем?и символы?
22.06.2011 в 16:59

Бобер-основатель
А при чем тут курсанты?

Кстати в быдло кодеры уже записалось 7 программистов. :super:

Тогда реши такие задачи:
Вариант 1: Сообщение "Человек стоит на асфальте" занимает 7 бит информации. Вероятность "ударить монтировкой по голове" в 16 раз меньше. Количество бит информации в сообщении "развяжутся ли шнурки" равно?
Вариант 2: "Сообщение «"1" "2"» несет 7 бита(бит) информации. Вероятность изучения "3" в 16 раз меньше. Количество бит информации в сообщении «"1" "3"» равно"?"

Это не ирония и я тебя не троллю, просто в такой формулировке связь фраз понятней. Варианты я не зря пронумеровал. Это иллюстрация примерами прошлого поста.
22.06.2011 в 17:02

Бобер-основатель
Вот если как в приведенном тобой примере, то задача должна звучать примерно так:
"Сообщение «бла-бла-бла» несет 7 бита(бит) информации. Вероятность сообщения "ля-ля-ля" в 16 раз меньше. Количество бит информации в сообщении "ля-ля-ля" равно"?"
22.06.2011 в 17:07

Люблю
Джоник, сходи в школу. Там тебе расскажут. Ну, или на первый курс.
22.06.2011 в 17:17

Бобер-основатель
Пятый эльф в седьмом ряду Только не говори, что ты тоже преподаешь ересь студентам. Поскольку для решения ты применила формулу Шеннона, а она применяется только для равновероятных событий. Тут сказано, что вероятность в 16 раз меньше, значит применяется более общий случай формула Хартли-Шеннона. В твоем же примере где "урок №5" даже написано, что чем событие маловероятней тем больше бит занимает.

ЗЫ. Верни примеры.