Домен arhivach.hk временно не функционирует! Используйте адрес
ARHIVACH.SITE.
24 декабря 2023 г. Архивач восстановлен после серьёзной аварии. К сожалению, значительная часть сохранённых изображений и видео была потеряна.
Подробности случившегося. Мы призываем всех неравнодушных
помочь нам с восстановлением утраченного контента!
В интернете появился загадочный материал, автор которого, оставшийся неизвестным, утверждает, что разработал математическое доказательство так называемого "вечного сжатия информации". Метод якобы основан на использовании 4-уровневого словаря и разложения бинарного кода на словари с "постоянной базой" в 900 ГБ. Это утверждение вызвало волну критики, особенно в свете фундаментальных принципов теории информации, разработанных Клодом Шенноном. Давайте разберёмся, в чём суть этого заявления, как оно представлено, почему вызывает сомнения и какие перспективы оно может открыть.
Суть утверждения неизвестного автора
Неизвестный автор предлагает революционную идею: сжатие данных может быть бесконечным благодаря рекурсивной структуре словаря. Его метод включает:
4-уровневый словарь: На каждом уровне пары бинарного кода кодируются метками, которые сами являются бинарным кодом. Этот процесс повторяется до четвёртого уровня.
Рекурсия: Автор утверждает, что такая структура позволяет сжимать данные многократно, достигая "вечного сжатия".
Конкретные расчёты: В качестве доказательства приводятся размеры словарей на каждом уровне:
Уровень 0: 16 пар, 8 байт/пара = 128 байт
Уровень 1: 256 пар, 8 байт/пара = 2 КБ
Уровень 2: 65 536 пар, 8 байт/пара = 512 КБ
Уровень 3: 4 294 967 296 пар, 8 байт/пара ≈ 900 ГБ
Постоянная база в 900 ГБ: Указывается, что на третьем уровне словарь достигает этого размера, что якобы подтверждает возможность рекурсивного сжатия.
https://pikabu.ru/story/sozdana_programma_vechnogo_szhatiya_informatsii_bez_poter_iskhodnyiy_kod_i_programma_na_python__12425722
Автор подчёркивает, что вся информатика основана на бинарном коде, а у 4 бит всего 16 комбинаций. По его логике, использование парного кодирования и словарей позволяет организовать бесконечный процесс сжатия.
Критика: Что говорит теория Шеннона?
Клод Шеннон, основоположник теории информации, в своей работе A Mathematical Theory of Communication (1948) доказал, что сжатие данных без потерь имеет строгий предел, определяемый энтропией источника. Энтропия (H) — это мера неопределённости или случайности данных, выраженная в битах на символ. В идеальных условиях данные можно сжать до размера, близкого к H бит на символ, но не меньше. Это означает:
Если данные имеют высокую избыточность (низкую энтропию), их можно сжать сильнее.
Если данные случайны (высокая энтропия), сжатие будет минимальным.
После достижения этого предела дальнейшее сжатие невозможно без потери информации, так как иначе декомпрессия станет неоднозначной. Утверждение о "вечном сжатии" — то есть бесконечном уменьшении размера данных — противоречит этому фундаментальному принципу.
Анализ метода с 4-уровневым словарем
Как работает предложенная структура?
Автор описывает иерархический словарь, где:
На нулевом уровне кодируются 16 комбинаций 4-битных последовательностей (2⁴ = 16), что занимает 128 байт.
На первом уровне пары из предыдущего уровня объединяются, создавая 256 комбинаций (16 × 16), или 2 КБ.
На втором уровне процесс повторяется, достигая 65 536 пар (256 × 256), или 512 КБ.
На третьем уровне количество пар взлетает до 4 294 967 296 (65 536 × 65 536), что равно примерно 900 ГБ.
Идея заключается в том, что данные кодируются метками, которые ссылаются на записи в словаре, а сами метки тоже кодируются аналогичным образом на следующем уровне. Автор считает, что такая рекурсия обеспечивает бесконечное сжатие.
Проблемы метода
Экспоненциальный рост словаря:
Размер словаря увеличивается на каждом уровне: от 128 байт до 900 ГБ на третьем уровне. Это означает, что для сжатия даже небольшого объёма данных требуется гигантский словарь, который сам по себе занимает больше места, чем исходные данные в большинстве случаев.
Например, чтобы сжать файл размером 1 МБ, словарь на уровне 3 (900 ГБ) будет в миллионы раз больше исходного файла. Это делает метод практически неприменимым.
Ограничение энтропией:
Рекурсивное кодирование не устраняет предел, установленный Шенноном. Каждый уровень может лишь приближать сжатие к энтропии данных, но не преодолевать её. После достижения минимального размера дальнейшее сжатие невозможно без потерь.
"Вечное сжатие" — иллюзия:
Рекурсия, описанная автором, конечна: она останавливается на четвёртом уровне. Даже если процесс продолжать бесконечно, принцип голубиных гнёзд (pigeonhole principle) показывает, что для конечного числа сжатых представлений невозможно однозначно закодировать бесконечное число исходных данных.
Практическая неосуществимость:
Словарь размером 900 ГБ требует колоссальных вычислительных ресурсов для хранения и обработки. Современные методы сжатия, такие как ZIP или Huffman, используют словари размером в десятки или сотни килобайт, что делает их эффективными и практичными.
Возможные интерпретации утверждения
Ошибка автора:
Возможно, автор неверно интерпретировал рекурсию как бесконечное сжатие. Его метод может быть просто сложным способом достижения конечного сжатия, ограниченного энтропией.
Особый тип данных:
Если метод предназначен для данных с экстремальной избыточностью (например, самоподобных структур), он мог бы показать высокую эффективность. Но даже в этом случае предел сжатия остаётся.
Сходство с фрактальным сжатием:
Иерархическая структура напоминает фрактальное сжатие, используемое для изображений. Однако фрактальное сжатие обычно работает с потерями, а автор подразумевает сжатие без потерь.
Заключение с надеждой на будущее
Утверждение неизвестного автора о "вечном сжатии информации" с помощью 4-уровневого словаря и базы в 900 ГБ звучит интригующе, но сталкивается с серьёзными теоретическими и практическими ограничениями. Клод Шеннон доказал, что сжатие данных без потерь ограничено энтропией источника, и предложенная рекурсивная структура не может обойти этот предел. Экспоненциальный рост словаря до 900 ГБ делает метод громоздким и неэффективным для реального применения, а идея "вечного сжатия" остаётся пока лишь смелой гипотезой.
Тем не менее, если автору удастся представить более убедительные доказательства или адаптировать свой подход, это может открыть новые горизонты. Представьте себе мир, где "вечное сжатие" действительно работает: нас ждут грандиозные перемены в хранении информации и информатике! Огромные объёмы данных можно будет уместить в крошечных устройствах, а передача информации станет мгновенной и невероятно экономичной. Пока это фантазия, но такие идеи вдохновляют учёных и инженеров искать новые пути в неизведанное. Возможно, этот загадочный автор — лишь первый шаг к будущему, где границы возможного будут пересмотрены.