![]() |
![]() |
|
|
Место для Вашей рекламы!
|
|
||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Обсуждение и комментарии |
| Alex - 00alex 9 Jan 2002 4:53 PM | |
| забавно, опровергают то, что используют (энтропию) ;-) Больше похоже на расширение канала связи, а не на опровержение трудов Шенона ;-) Ну да ладно, поживем увидим. | |
| | |
| andry 9 Jan 2002 6:28 PM | |
| > >ZeoSync утверждает, что ее ученым удалось >найти способ компрессии случайной информации >— без потерь — более чем в 100 раз. > Чушь, чушь и в третий раз чушь! Желающим напоминаю 1-во правило компрессора: a) Положим, Вам говорят, что есть алгоритм, которые может сжимать _случайный_ данные b) Ok, вот вам все возможноые файлы длинной неболее 1000 байт - сожмите их все, please... c) Если Ваш алгоритм работает правильно, то каждый файл станет после сжатия хоть на 1 байт короче, ведь так? d) А как быть с тем, что количество возможных файлов с длинной до 999, само собой, куда меньше, чем с длинной до 1000!? Вывод: алгоритма, который сжимает что угодно (_случайные_ данные) нет (хотя сообщения о нем появляются с завидно периодичностью последние лет 30) | |
| | |
| - 9 Jan 2002 8:40 PM | |
| Это цифровые данные... А они их похоже преобразовывают в аналог обратно. А там чего угодно можно намешать | |
| | |
| Zanuda 9 Jan 2002 9:02 PM | |
| Редактору и переводчику: Cold Fusion - не холодное плавление, а холодный ядерный синтез | |
| | |
| Волков 10 Jan 2002 12:30 AM | |
| 1. В оригинальном пресс-релизе (http://www.zeosync.com/flash/pressrelease.htm) употребляются термины "практически случайные данные" и "слабоупорядоченные информационные цепочки". Никто не говорит о компрессии абсолютно случайных данных. 2. Кажется они сначала сжимают данные существующим методом, в результате чего получают эти самые "практически случайные данные". После этого они (вот тут я не уверен что правильно понял) добавляют к ним случайную составляющую чтобы ихняя энтропия стала такой-то и такой-то а потом натравливают свой алгоритм. 3. Там еще есть такая фраза судя по которой, проблема с которой они столкнулись это слабая производительность современных компьютеров. | |
| | |
| FizLi 10 Jan 2002 7:35 AM | |
| Теоретически такая возможность уже давно "предсказана" (назовем это так...), а вот практически... Поживем - увидим. Но дело даже не в этом - сильно удивило (и это мягко говоря!) безапеляционное заявление о "закрытии" холодного ядерного синтеза - и это в то время, когда готовится если и не прорыв, то достаточно большой шаг вперед!(Для скептиков: под CFS подразумевается несколько не то, о чем "пугала" еллов-пресса %-))!). | |
| | |
| Гоша 10 Jan 2002 8:38 AM | |
| Предлагаю революционный метод сжатия аудио- файлов: 1. я имею все записи группы AC/DC со дня их основания в моём компрессоре (например, exe- модуле ). 2. я сжимаю имеющуюся запись группы AC/DC до ссылки в моём компрессоре(1 байт). Сжатие в 1.000.000 раз. Ребята, платите мне миллионы! (шутка) | |
| | |
| boris 10 Jan 2002 9:10 AM | |
| вроде бы идет речь о сжатии без потерь, но тут же упоминаются jpeg/mpeg, которые сжимают с потерями. собственно, 10-кратное сжатие пока бывает только с потерями. так что и 100-кратное, наверняка, того же сорта. и, видимо, для очень мультимедийных приложений. таким образом, zip и rar пока ничто не угрожает :) | |
| | |
| Константин 10 Jan 2002 10:34 AM | |
| Кстати, Клод Элвуд Шеннон умер в 2001 году. | |
| | |
| СтранниК - irc29 10 Jan 2002 11:05 AM | |
| Интерестно а вечный двигатель еще сделали? Наверно я рановато зашел. | |
| | |
| 6opucka - b.ignatov 10 Jan 2002 1:04 PM | |
| А как насчет сжатия уже сжатых (ими же) файлов? Кстати, в оригинале писали о том, что они "небольшие объемы данных могут быть подвергнуты сжатию..." - по моему, полная туфта - разбивай большой файл на мелкие - и жми! Наверное, оччень инветоров привлечь хоца... | |
| | |
| andry 10 Jan 2002 5:22 PM | |
| 2 - > >Это цифровые данные... А они их похоже >преобразовывают в аналог обратно. >А там чего угодно можно намешать > То есть названные 100 раз - это отношение вольт на выходе к битам на входе? Оригинальнос-с! ;-))) А если серьезно - сжатие без потерь (!) - это математический алгоритм по отпределению! 2 Волков > >Никто не говорит о компрессии абсолютно случайных данных. > Спасибо - я действительно не посмотрел первоисточник, а перевод практически ничего не оставил от смысла. Хотя конечный вывод, IMHO, остается тем же - прикол для прессы бульварной, никак не технической | |
| | |
| VB man 10 Jan 2002 8:05 PM | |
| скорей всего речь и идёт о специальном вероятносном распредилении ("практически случайные данные"). Как известно - "Ничего просто так никуда непропадает - и неберётся" - или они и ентот закон хотят похерить? | |
| | |
| antiloop - antiloop 11 Jan 2002 11:25 AM | |
| Попробуйте сжать слово "идиотизм" в 100 раз. По идее на выходе должен получиться пустой файл с n-колличеством пробелов. Вот как замочил.:) | |
| | |
| Commandor 11 Jan 2002 2:54 PM | |
| Чушь это все, ребята. Не более, чем рекламная утка (видимо, прав 6opucka - на глупых инвесторов рассчитано). Это я вам как кандидат физ-мат наук говорю. | |
| | |
| Обиженный 12 Jan 2002 2:05 AM | |
| Что они нового нашли в своей теории?! Еще 20 лет назад военные использовали 100-кратную систему сжатия речевой информации на основе фонемного синтеза, т.е. по очень узкому частотному каналу (10..20 Гц) передавалась только огибающая речевого сигнала (т.е. - изменение интонации), а уже начинку (т.е.-голос)вставляли на принимающей стороне с помощью синтезаторов. Вот таким образом и используется сочетание цифровых методов с аналоговыми . | |
| | |
| Глюпый 12 Jan 2002 2:18 AM | |
| Пусть, например, похоронный марш на диске занимает 1.000.000 бит, тогда после сжатия его получим "1" - т.е. играть похоронку, а "0" - означит не играть, что => В теории всё сжать можно до бесконечности (даже Вселенную!!!). | |
| | |
| Slashzone.Ru - forspam 12 Jan 2002 4:14 PM | |
| Стыдно, Zdnet, такие статьи преводить, да еще с потерей смысла.. | |
| | |
| Вячеслав - vip 14 Jan 2002 12:29 AM | |
| Сжатие без потерь - все доказано Шенноном. Сжатие с потерями точности восстановления очевидно зависит от величины потерь ... | |
| | |
| Alex N 15 Jan 2002 1:32 AM | |
| Приятно осознать что русскоязычная публика все еще чего-то помнит из институтской программы ! (Интересно почитать комментарии от нынешних молодых. Ох боюсь что могут броситься вкладывать свои денешки в этот ...) ;o) | |
| | |
| sen - sen 15 Jan 2002 4:26 PM | |
| я знаю способ сжатия информации в 102,4 раза без потерь. Ничего сложного. | |
| | |
| Мичурин 16 Jan 2002 12:46 PM | |
| "Попробуйте сжать слово "идиотизм" в 100 раз." Кстати, можно. Наберите в блокноте его 100 раз, и сожмите зипом - сколько бит на слово наберётся? :) Гоша: "я сжимаю имеющуюся запись группы AC/DC до ссылки в моём компрессоре(1 байт). Сжатие в 1.000.000 раз. Ребята, платите мне миллионы! (шутка) " Не смешно, потому как правильно. Ведь все архиваторы, по сути, пытаются найти закономерности исключительно В САМИХ архивируемых данных, забывая об их многогранной связи с действительностью! А вот если бы и компрессор, и декомпрессор, прежде чем за сжатие браться, перечитали бы все труды Ленина, и пересмотрели бы все популярные телепрограммы, к примеру, то весь "Материализм и эмпириокритицизм" в купе с "За стеклом" сжались бы до одного названия! | |
| | |
| Zero 4 Feb 2002 1:22 PM | |
| Это еще больший бред чем "вечный двигатель". Если против Первого начала термодинамики еще можно придумать какую-нибудь "божественную энергию" :)) то здесь-то все ясно... ПРОИЗВОЛЬНУЮ последовательность невозможно сжать без потерь даже на 1 бит! | |
| | |
| Мичурин 6 Feb 2002 4:31 AM | |
| Произвольную, конечно, нельзя. А вот видеоряд с Биллом Гейтсом можно и на словах более-менее точно описать. Потому, что собеседник тоже не вчера родился, и кое-что об этом мире знает. С чудовищной степенью сжатия, правда, и с такими же потерями. | |
| | |
| Прохожий 18 Feb 2002 12:47 PM | |
| Счастливчики видели даже зелёных человечков... | |
| | |
| Прохожий 18 Feb 2002 1:47 PM | |
| Хотя, с другой стороны, главное в мультимедийных сжималках-убрать информацию, которая человеку вообще-то безразлична. Уже афишируются алгоритмы сжатия изображений (похоже, гармонической аппроксимации)в 2..3 раза эффективнее JPEG при визуально идентичном качестве. | |
| | |
| Ash - ashsoft 24 Feb 2002 8:59 AM | |
| Маленький пример для показания эффективности существующих алгоритмов сжатия: 1. Cоздайте файл из 256 байт - 0, 1, 2, 3, ... 254, 255 2. Поробуйте сжать его RAR, ZIP, ARJ... Что получится? А ничего - размер архива лишь увеличится. 3. Задайте любому человеку вопрос - есть ли в данной информации избыточность? - ответ очевиден. Вывод - существующие алгоритмы сжатия не учитывают такую вещь как закон изменения информации. Мне скажут - слишком простой пример - слишком все очевидно. Хорошо, тогда так: 1. Берем генератор псевдослучайных чисел с известными начальными условиями и заданным законом формирования следующего числа. 2. Из этих чисел формируем файл размером с период такого генератора (а период может быть сколь угодно большим!) 3. ЛЮБОЙ архиватор сожмет этот файл в лучшем случае на 1-2% 4. НО - и любой человек не углядит в этом файле какой-либо закономерности изменения данных. А увидит лишь ПРОИЗВОЛЬНУЮ последовательность. Теперь вопрос - а может можно и любую числовую последовательность разложить на множество таких генераторов (аналогия с преобразованием Фурье, или Wavelet?). Если это удалось ZeoSync - честь им и хвала (хотя вычислительные мощности для этого нужны немалые). Но все-таки все это больше напоминает провокацию... Жаль, если так - идея имеет право на существование. Кто захочет мне ответить - сообщите на e-mail - я здесь гость редкий. | |
| | |
| KIM - kim_net 27 Feb 2002 4:16 PM | |
| 2 Ash: Первая серьезная мысль в обсуждении. Думаю, что сжатие на основе поиска повторяющихся фрагментов - прошлый век. Считаю, что любая, самая неповторяемая и непредсказуемая последовательность информации содержит в себе некую функцию функций формирования, обладая огромными вычислительными ресурсами, которую можно вычислить и записать данную информацию в виде этой функции. Степень сжатия в таком случае равна отношению объема входной информации к сложности функции, которой можна эту информацию задать. Очевидность этого можно осознать, если просто посмотреть на двоичный вид файла. 010101 - модуль полутора периодов синуса, например. -) А ведь рассматривать можно позволить себе не только двоичный код, а и все возможные, анализировать можно как отдельные цифры, так и пары, триады,... и блоки для анализа можно брать как байтные, так и мегабайтные... А функции после анализа также можна подвергнуть сжатию и оптимизации... То есть, чем большие вычислительные ресурсы мы можем позволить себе использовать, тем большей степени сжатия добъемся в результате. Следствием является также то, что больший файл сжимается лучше. Осталось только запихнуть в архиватор максимально возможное число функций, слабо ограниченное число степеней свободы анализа (пусть даже код займет гигабайты) и, думаю, фраза "в 100 раз" - детский лепет по сравнению с тем, чего можна добиться (объединив, конечно, для написания архиватора математику максимального кол-ва университетов и индивидуалов -)). LUCK!!! | |
| | |
| ← декабрь 2001 | 4 6 7 8 9 10 11 14 15 | февраль 2002 → |
Место для Вашей рекламы!