итак, что мы знаем о информации?
для начала вот вам классические определения:
"Согласно Советскому энциклопедическому словарю, информация - это набор сведений об окружающем человека мире, протекающих в нем процессах и явлениях."
"Согласно словарям, информация - это некоторые сведения, совокупность каких-либо данных, сообщения, осведомляющие о положении дел, о состоянии чего ...
Как сказано в определении, информация - это знания. "
"Информация - это первичное и неопределяемое понятие в рамках науки (Ю.А. Шафрин);
(Информатика - энциклопедический словарь);"
"Информация - это сообщения, осведомляющие о положении дел, о состоянии чего-нибудь" ("Словарь русского языка" С.Ожегова,"
"Таким образом, с этимологической точки зрения, информация - это акт придания структуры некоторой неопределенной массе.
(Философский энциклопедический словарь, 1983)
"
Ну а теперь об измерениях информации:
"БИТ - двоичная единица, используется для измерения количества информации.
Таким образом, записывая в цифровом виде любую информацию, измерить ее можно в битах."
"По Шеннону бит - это двоичный логарифм вероятности равновероятных событий или сумма произведений вероятности на двоичный логарифм вероятности при разновероятных событиях.
Один разряд двоичного кода (двоичная цифра). Может принимать только два взаимоисключающих значения: да/нет, 1/0, включено/выключено, и т. п.
Базовая единица измерения количества информации, равная количеству информации, содержащемуся в опыте, имеющем два равновероятных исхода. Это тождественно количеству информации в ответе на вопрос, допускающий ответы 'да' либо 'нет' и никакого другого (то есть такое количество информации, которое позволяет однозначно ответить на поставленый вопрос). В одном двоичном разряде содержится один бит информации.
Бит - такт в музыке, употребляеся в выражении англ. beat per minute, bpm - ударов в минуту. Чем больше значение, тем выше темп музыки.
В вычислительной технике и сетях передачи данных обычно значения 0 и 1 передаются различными уровнями напряжения либо тока. Например, в микросхемах на основе TTL 0 представляется напряжением в диапазоне от +0 до + 3 В, а 1 в диапазоне от 4,5 до 5,0 В.
В вычислительной технике, особенно в документации и стандартах, слово 'бит' часто применяется в значении двоичный разряд. Например: первый бит - первый двоичный разряд байта или слова о котором идет речь.
В настоящее время бит - это наименьшая возможная единица измерения информации в вычислительной технике, но интенсивные исследования в области квантовых компьютеров предполагают наличие q-битов."
Про кубиты честно говоря не понял ровным счетом ничего громе того, что он имеет тоже 2 состояния.
"Ниббл (англ. nibble, nybble), или полубайт - устаревшая и почти не используемая ныне единица измерения информации, равная четырем битам, может принимать 16 различных значений, удобна тем, что представима одной шестнадцатеричной цифрой. Два ниббла составляют байт.
Октет в информатике - 8 бит, синоним байта. Часто употребляется при описании сетевых протоколов. В отличие от байта, который (в широком смысле) может быть равен 10, 12 и т. п. битам, октет всегда равен 8 битам.
Машинное слово - машиннозависимая и платформозависимая величина, измеряемая в битах или байтах, равная разрядности регистров процессора и/или разрядности шины данных (обычно некоторая степень двойки). Размер слова совпадает, также, с минимальним размером адресумой информации (разрядностью данных, расположенных по одному адресу). "
Википедия.
Вот, собственно все, что мы имеем касательно информации.
Подитожим:
информация - это набор сведений об окружающем человека мире, протекающих в нем процессах и явлениях.
Информация в природе ЕСТЬ.
Информация измеряется в битах используя двоичную логику.
(Почему то больше информация ни в чем не измеряется. По крайней мере, никто не рискует это делать).
честно говоря, определение Шеннона по поводу бита меня не устраивает-слишком сложно.
К тому же зачем то берутся вероятности значения, которое может принимать бит.
Т.е. создается такое впечатление, будто он хотел сказать, что состояние бита заранее не определено и что это состояние зависит от какой то вероятности (а какой, он не говорит).
Меня это не устраивает. Я знаю, что состояние бита в логических схемах всегда зависит от того, на каком выходе логического элемента он смотрится, какой именно этот логический элемент (в смысле какую двоичную функцию он выполняет) и какие состояния на входе у этого элемента присутствуют в данный момент времени измерения. Все эти параметры всегда известны. Если эти параметры не известны-схема не работает вообще либо работает не правильно, выполняя не свойственную ей нелинейную функцию. Но, это уже извините, не относится к двоичной логике.
Никаких вероятностей я тут не наблюдаю. Я говорю о статике и динамике бита.
В динамике, состояния бита точно такое же и никаких неопределенностей быть не может и их нет.
Какую вероятность Шеннон имел в виду, я не понимаю.
Итак:
Коли информацию никто кроме как битами мерять не намерян, то и будем строить концепцию новой информатики с позиции двоичной логики, никто не против?
Какие логические функции мы знаем?
Их набор не велик: Или, Не, исключающие ИЛИ, И.
Существуют еще штрих шеффера и стрелка пирса, но это составные элементы.
Указанные 4 простейших двоичных функций-это аксиомы двоичной логики, наподобие математических +,-,/,* и пр.
Все эти арифметические функции легко реализуются с помощью указанных двоичных аксиоматичных функций (Или, Не, исключающие ИЛИ, И.) и благодаря этому в процессоре ЭВМ мы имеем соответствующие арифметические операции.
Существует масса языков программирования, в которых человек можед задавать процессору разные команды, а они в свою очередь переводятся машиной на единственно понятный ей язык в виде алгоритма из вот этих четырех функций, на которые все и раскладывается.
Теперь рассмотрим всю информацию (знания), которая хранится на компьютере с точки зрения этих самых функций и бит.
На самом деле любое слово в тексте или буква, это не просто набор бит, а еще и алгоритм, позволяющий перевести эту последовательность нулей и едениц в привычные нам понятия.
этот алгоритм построен из последовательности указанных простейших функций и его запись для каждого элементарного понятия (буква, цифра) хранится в памяти компьютера. (см. Стандарт ASCII).
Т.е. можно говорить, что каждая буква имеет вполне конкретный размер в битах и алгоритм, по которому ее можно идентифицировать в привычном понимании как определенную букву.
Несложно заметить, что без этого алгоритма двоичный код (подсчитанный в битах), представляющий собой какую то букву не несет в себе информации.
Из этого следует, что информация тесно связана с понятием алгоритм, если нет алгоритма, то и информации тоже нет.
А еще из всего этого видно, что количество информации в битах, которой может быть представлена буква зависит от данной конкретной машины и ее стандарта для кодировки этих букв.
Т.е. количество информации об объекте может быть точно измерено в битах только в рамках одной системы (компьютера), и может считаться таким же для другой системы, если в другой системе (компьютере) алгоритм дешифрации полностью совпадает.
теперь перенесем все это в реальный мир человеков и нелюдей.
Алгоритм, по которому человек у себя в голове представляет то или иное понятие (ту же букву или слово), тоже можно было бы померять в битах, если бы мы могли построить двоичную модель работы мозга конкретно этого человека.
Но мы этого сделать пока не можем и поэтому спрашивать, сколько бит содержит то или иное сказанное слово этого человека -не корректно.
Однако очевидно, что алгоритмы шифрации (представленные в голове нейронной логикой) букв и фраз у одинаково говорящих людей совпадает, поэтому, собственно, русские понимают русский язак, а англичане английский.
Так что же такое информация?
вот вам мое определение:
Информация это совокупность алгоритма записи того или иного понятия и использованной для этой записи набора логики. В двоичной логике таковыми являются функции Или, Не, исключающие ИЛИ, И, и еще 5-й элемент, сами аргументы логики:
"0"- 1-е аксиоматическое состояние бита
"1"- 2-е аксиоматическое состояние бита
Предлагается внести данное определение в словарь квантовой физики.
