Бобер-основатель
Моя девушка попросила сегодня решить ей задачу по информатике:
"Сообщение «курсанты изучали Visual Basic» несет 7 бита(бит) информации. Вероятность изучения Pascal в 16 раз меньше. Количество бит информации в сообщении «курсанты изучали Pascal» равно"?
читать дальше
Кто считает себя достаточно крутым чтобы решить ее?
P.S. Человек стоит на асфальте, если ему ударить монтировкой по голове, развяжутся ли шнурки?
"Сообщение «курсанты изучали Visual Basic» несет 7 бита(бит) информации. Вероятность изучения Pascal в 16 раз меньше. Количество бит информации в сообщении «курсанты изучали Pascal» равно"?
читать дальше
Кто считает себя достаточно крутым чтобы решить ее?
P.S. Человек стоит на асфальте, если ему ударить монтировкой по голове, развяжутся ли шнурки?
можешь сказать что ее не смогли решить 5 спецов)))
З.Ы. Если ударить достаточно сильно, в морге шнурки обязательно развяжутся)
log2 (1/p)=7
1/p=2^7=128
p=1/128
p/16=8
log2 8=3 бита
Пятый эльф в седьмом ряду Мы по подсказке Графа тоже узнали про существование формулы Хартли и Шеннона I = - Sum рi log2 рi,, один только косяк, по ней мельчайшая неделимая единица информации - бит (1-0, истина-ложь, есть сигнал-нет сигнала и т.д.) - может иметь дробную часть. Потому это бред пары обкурышей.
Задача: Шарик находится в одной из трех урн: А, В или С. Определить сколько бит информации содержит сообщение о том, что он находится в урне В.
Решение.
Такое сообщение содержит I = log2 3 = 1,585 бита информации.
А теперь вспомним немного теории кодирования. Стандартная таблица символов ascii кодирует 1 символ в восемь бит. Как фраза из четырех слов может занять 7 бит?
UTF-8 1 кодирует символ в 2 байта = 2*8 бит = 16 бит. Если вы мне объясните как сжать фразу из 29 символов в 7 бит, я обещаю написать архиватор и поделиться пополам Нобелевской премией.
Почитай школьный учебник.
У того кому по башке стукнули, когда его привезут в морг, шнурки кем-нибудь развяжутся, причем он сам к ним не притронется)))
я сегодя добрый)))
какая-то мутная задача... нам, быдлокодерам, непонять...
drumling Куда нам до таких высоких материй.
Бит - это количество информации, уменьшающее неопределенность в два раза. Если неопределенность уменьшилась в нецелое число раза, вот и получаются части бита.
Соответственно, в объемном подходе бит - 1 или 0, что уменьшает неопределенность ровно в два раза.
Ты мне скажи как можно задать вопрос требующий ответа "да" или "нет" 1,585 раз?
А например, какой свет загорелся на светофоре - зеленый, желтый, красный? Это тоже информация. И тоже уменьшает неопределенность.Ее тоже можно измерить.
Кстати, а бывали еще троичные компьютеры, к примеру. И фибоначчиева система счисления. И сумма углов треугольника не всегда 180 градусов. Понавыдумывают же.
для троичных компов нужен трит, или там троичный бит, или какое еще извращенное название. А в обычный человеческий бит ничего кроме 0 и 1 не запихаешь. Это все равно что спросить, какова плотность воды, а потом сказать, что неправильно, ведь мы имели ввиду "огненную воду", моглы бы и догадаться. Когда локальная групка людей берут общепринятое слово, и форсят свой локальный мем, пытаясь заместить это слово другим понятием, большинству неизвестным, это какое-то луркоебство получается.
Но в принципе никто не удивляется отсутствию логики в милицейских заданиях. Они же половина не справится, а половина - сильные, и запихают в бит все что угодно. А под пытками он себя еще и кубитом признает)))
Ага можно, 2 бита.
а бывали еще троичные компьютеры,
Бывали, но там не биты. Вот там-то твоя задача будет иметь 1 троичный бит или какой-нибудь трит.
drumling Но в принципе никто не удивляется отсутствию логики в милицейских заданиях.
Но все-таки люди составляющие задание не должны давать заведомо ложные условия. Хотя структура эта печальная.
Ну не в упертости дело, а в определении единицы измерения. Ты же не согласишься, если я придумаю новое определение метра.
Давай википедию почитаем:
По Шеннону[1]:
Бит — это двоичный логарифм вероятности равновероятных событий или сумма произведений вероятности на двоичный логарифм вероятности при равновероятных событиях; см. информационная энтропия.
Бит — базовая единица измерения количества информации, равная количеству информации, содержащемуся в опыте, имеющем два равновероятных исхода; см. информационная энтропия. Это тождественно количеству информации в ответе на вопрос, допускающий ответы «да» либо «нет» и никакого другого (то есть такое количество информации, которое позволяет однозначно ответить на поставленный вопрос).
Один разряд двоичного кода (двоичная цифра). Может принимать только два взаимоисключающих значения: да/нет, 1/0, включено/выключено, и т. п.
ru.wikipedia.org/wiki/%D0%91%D0%B8%D1%82
Отсюда вывод, два определения противоречат друг другу. Ну не возможно задать вопрос требующий ответа да/нет дробное число раз. Соответственно, это не просто разные подходы, это разные величины. Посмотрим что же такое Информационная энтропиия:
Информацио́нная энтропи́я — мера неопределённости или непредсказуемости информации, неопределённость появления какого-либо символа первичного алфавита. При отсутствии информационных потерь численно равна количеству информации на символ передаваемого сообщения.
Энтропия — это количество информации, приходящейся на одно элементарное сообщение источника, вырабатывающего статистически независимые сообщения.
ru.wikipedia.org/wiki/%D0%98%D0%BD%D1%84%D0%BE%...
Вывод: биты разные. Первый это некая абстрактная математическая величина, применяемая в разных теориях. Второй бит - практическая единица измерения. Но все же - они разные. Как минимум один непрерывный, другой дискретный.
Да, твой подход верный, он и имелся ввиду, это мы знаем. Но в данном задании, на мой взгляд, банально смешаны два разных определения бита.
Тут задача поставлена, что сообщение несет 7 бита(бит) информации. Тут либо нельзя применять "несет", либо "сообщение".
Вариант 1: Само сообщение является символом первичного алфавита. По сути неделимо для алфавита из таких сообщений, поэтому вероятность изучения Паскаля как языка курсантами тут абсолютно непричем. Даже допустим, что Pascal , это тоже символ этого алфавита. Тогда второе сообщение третий символ. В итоге, данные вероятности на Паскаль не влияют на второе сообщение.
Вариант 2: Первое сообщение состоит из двух символов "курсанты изучали " и "Visual Basic", "Pascal" тоже символ. Тогда у нас нет данных для вычислений "курсанты изучали " + "Pascal". т.к. нам ничего не известно о "первом символе" отдельно.
Короче это все философия. В для МВД это круто слишком вникать в такие подробности. Авторы задания просто узнали о такой формуле, придумали не корректное задание, сами того не осознавая.
Кстати в быдло кодеры уже записалось 7 программистов.
Тогда реши такие задачи:
Вариант 1: Сообщение "Человек стоит на асфальте" занимает 7 бит информации. Вероятность "ударить монтировкой по голове" в 16 раз меньше. Количество бит информации в сообщении "развяжутся ли шнурки" равно?
Вариант 2: "Сообщение «"1" "2"» несет 7 бита(бит) информации. Вероятность изучения "3" в 16 раз меньше. Количество бит информации в сообщении «"1" "3"» равно"?"
Это не ирония и я тебя не троллю, просто в такой формулировке связь фраз понятней. Варианты я не зря пронумеровал. Это иллюстрация примерами прошлого поста.
"Сообщение «бла-бла-бла» несет 7 бита(бит) информации. Вероятность сообщения "ля-ля-ля" в 16 раз меньше. Количество бит информации в сообщении "ля-ля-ля" равно"?"
ЗЫ. Верни примеры.