ott vod
Varios grupos de investigación en todo el mundo están investigando actualmente cómo el aprendizaje profundo puede hacer avanzar el proceso de codificación de imágenes y videos. Una pregunta abierta es cómo hacer que las redes neuronales profundas funcionen junto con los códecs de video existentes (y próximos), como MPEG AVC / H.264, HEVC, VVC, Google VP9 y AOMedia AV1, así como los formatos de contenedores y transporte existentes. Dicha compatibilidad es un aspecto crucial, ya que se espera que la industria del contenido de video y los fabricantes de járdwer sigan comprometidos a apoyar estos estándares en el futuro previsible.
La compañía especializada en codificación, Size, propone redes “neuronales” profundas como componentes de precodificación para ecosistemas de códec actuales y futuros. “En nuestras implementaciones actuales para la transmisión adaptativa DASH/HLS, esto incluye redes neuronales de reducción de escala. La precodificación a través del aprendizaje profundo permite una compatibilidad total con los estándares de transporte y códec actuales y futuros al tiempo que proporciona ahorros significativos”.
La empresa indica que los resultados con contenido HD muestran que la reducción de la tasa del 23% al 43% se lleva a cabo bajo una gama de implementaciones de códec de video de última generación. “El uso de precodificación también puede conducir a una reducción significativa de la complejidad de codificación, que es esencial para la implementación en la nube de codificadores complejos como AV1 y MPEG VVC. Por lo tanto, más allá del ahorro de bitrate”. Size lanzó un documento explicativo de cómo consideran que el aprendizaje profundo puede generar la próxima tecnología de compresión.