De Russische software-ontwikkelaar Alexander Ratushnyak is er in geslaagd om 100MB aan Wikipedia-tekst te comprimeren tot een zelfuitpakkend bestand van 16.481.655 bytes.
Daarmee wint hij voor de tweede maal de Compression of Human Knowledge-prijs, ook bekend als de Hutter Prize. De Rus behaalt met zijn lossless-programmeerkunsten een compressieratio van 6,07, zodat hij voor elke Wiki-byte slechts 1,32 bit nodig had. Daarmee verbeterde hij zijn oude record met 3,5 procent en verdiende hij 1732 euro aan prijzengeld. Het wedstrijdregelement stelt dat het gecomprimeerde bestand zichzelf moet kunnen uitpakken op zowel een Linux- als een Windows-machine. De klus moet op een 2GHz Pentium 4 met 1GB werkgeheugen binnen een tijdspanne van tien uur zijn geklaard. De compressiemethode van Ratushnyak, waarin verschillende taalanalyses op de data worden losgelaten, doet er negen uur over om de Wiki-data uit te pakken tot het originele bestand. De oud informatica-student biedt zijn verbeterde algoritme, paq8hp12 geheten, met een gpl-opensourcelicentie aan.
Volgens Marcus Hutter, initiatiefnemer van de prijs, nadert Ratushnyak met zijn compressieratio de grenzen van wat menselijk gezien mogelijk is bij het voorspellen van patronen in tekstdata. Alleen met kunstmatige intelligentie zouden dergelijke bestanden in de toekomst mogelijk nog beter gecomprimeerd kunnen worden, maar AI wordt door Hutter juist gezien als een even lastig probleem om aan te pakken als het ontwikkelen van complexe compressie-algoritmes. De grenzen van wat theoretisch haalbaar is, werden al door een van de grondleggers van de informatica, de Amerikaan Claude Shannon, voorspeld en later door twee wetenschappers bevestigd. Toch weten programmeurs als Ratushnyak hun algoritmes elk jaar weer met enkele procenten te verbeteren.