El día 22 de febrero se constituyó DAPCOM-DATA Services, la primera ‘spin-off’ participada por la Universidad de Barcelona y la Universidad Politécnica de Cataluña, para explotar la tecnología de compresión de grandes volúmenes de datos, útil para misiones espaciales y para otras aplicaciones del sector aeronáutico, de la supercomputación, y de las tecnologías de la información y las comunicaciones.
DAPCOM-DATA Services desarrollará y comercializará FAPEC (Fully Adapted Prediction Error Code), un algoritmo de compresión de grandes volúmenes de datos —superiores a 1 terabyte (1012 bytes) — que permite hacer un uso más eficiente del hardware y del ancho de banda disponible para múltiples aplicaciones y sectores. Creado inicialmente para cumplir los elevados requerimientos de los sistemas de compresión en misiones espaciales y el sector aeronáutico, el algoritmo FAPEC puede ser de gran utilidad en el procesamiento e interpretación de datos de la investigación científica que utilizan los supercomputadores, así como para empresas que necesitan gestionar grandes volúmenes de datos en los sectores de las tecnologías de la información y las comunicaciones, el multimedia, las redes sociales o de juegos a través de internet, entre otros.
Esta nueva empresa nace de la investigación desarrollada por un grupo formado por ocho investigadores procedentes de la UB, la UPC, del Instituto de Estudios Espaciales de Cataluña (IEEC), y del Instituto Cartográfico de Cataluña, que iniciaron su colaboración en el marco del proyecto Gaia, una misión astrométrica de la Agencia Espacial Europea (ESA) en España.
Desarrollado en Lenguaje C + +, el algoritmo FAPEC tiene una capacidad de compresión sin pérdidas que, incluso con altos niveles de ruido y valores discrepantes (es decir, que pueden afectar la transmisión correcta de los datos), es más elevada y más precisa que otras soluciones que existen a día de hoy en el mercado.
El desarrollo y el uso de esta tecnología minimiza el espacio para almacenar los datos así como el ancho de banda para transmitirlas. También reduce el tiempo para comprimir los datos sin pérdidas, transmitirlas y descomprimir las mismas. Todo ello hace que el consumo de recursos en el procesado masivo de datos sea menor que otras soluciones estándar.




