El negro puro de OLED y la precisión de color de los NanoCell de LG tienen un nuevo aliado: la inteligencia de las máquinas. La evolución del aprendizaje automático o machine learning y el deep learning abre la puerta a una nueva forma ver y escuchar televisión. Además, con la llegada del 4K y el 8K, el televisor necesita de procesadores cada vez más potentes, equipados con inteligencia artificial.
Pero ¿cómo funciona el algoritmo de deep learning que permite a los televisores de LG entregar la mejor calidad de imagen y sonido? ¿Cómo puede una máquina reconocer la imagen y qué procesos necesita ejecutar para optimizarla? ¿Hacia dónde camina la IA en televisores y qué podemos esperar de ella? La respuesta, a continuación.
Así se entrena un algoritmo de deep learning
A nivel informático, el aprendizaje profundo es un tipo de machine learning. Es decir, una de las diferentes técnicas de las máquinas inteligentes para aprender. El deep learning supone también una aproximación a la forma de pensar del cerebro humano, en la que una serie de unidades conectadas en red trabajan y procesan datos para obtener un resultado que es cada vez mejor.
“Los procesos de deep learning no requieren instrucciones concretas, se trata de un proceso de aprendizaje automático que se obtiene a base de prueba y error”, explican desde LG. “Este proceso se reproduce con millones de imágenes y sonidos. Cuantas más imágenes y más pruebas se ejecutan, mayor perfección y precisión obtendrá el sistema”.
Con esta misión, LG dispone de una serie de servidores en Corea para entrenar a los algoritmos que mejoran la calidad de imagen y sonido de sus televisores. Dichos sistemas reciben constantemente imágenes y sonido en baja y en alta calidad, entrenando unos algoritmos a través de los cuales las imágenes más degradadas recuperan el detalle perdido a través de su interpretación. El proceso se repite y se repite hasta que los tiempos se reducen y la calidad es prácticamente inmejorable.
Una vez que se han logrado resultados a la altura de los estándares de calidad que se buscan, los procesos desarrollados por los algoritmos de deep learning se vuelcan en los chips Alpha de LG: el Aplha7 con el que están equipados los televisores NanoCell y el Apha9 montado en los OLED. Los equipos ejecutan esos procesos ya cerrados, mientras que, en los servidores de LG, los algoritmos siguen entrenándose en un proceso de mejora continuo y perfeccionándose para futuras versiones.
Brillo, optimización de imagen y sonido envolvente
La inteligencia artificial ha llegado al mundo del televisor de muchas maneras. Pero la segunda generación de procesadores Alpha de LG se centra, sobre todo, en tres frentes que marcan la diferencia a la hora de mejorar la experiencia audiovisual: brillo, calidad de imagen y sonido envolvente.
Por un lado, el procesador detecta la fuente de contenido de mayor calidad y ejecuta una serie de acciones para optimizar la proyección. Además, ajusta la curva de mapeo tonal en función de la luz detectada por el sensor del televisor y poder ofrecer un brillo de pantalla óptimo en las zonas más ocuras. Por último, es capaz de mezclar audio conducido a través de un mínimo de dos canales diferentes para ofrecer un sonido envolvente y virtual.
A nivel de imagen, una vez analizado el contenido y reconocida su calidad, los procesadores deep learning ejecutan multitud de tareas para mejorarlo. Entre ellos, un doble proceso para reducción de ruido y otro para reducir el efecto halo o banding, la separación entre objeto principal y fondo de imagen, el escalado para adaptar una imagen de menor resolución a la resolución de la pantalla o el ajuste de colorimetría.
Vamos con los detalles.
El escalado inteligente para televisores 4K y 8K
La cantidad de información que se utiliza en un vídeo en Ultra HD es cada vez mayor. No solo porque las resoluciones 4K y 8K multiplican por 4 y por 16 los píxeles de la resolución Full HD, sino porque son vídeos con mayor tasa de bits, espacios de color mayores e, incluso, mayor número de fotogramas por segundo, tal el caso de las películas a 120 FPS.
Según los propios expertos de LG, dicho volumen de datos ya “empieza a ser muy difícil de manejar sin la intervención de sistemas de IA dedicados al procesado de la imagen”.
Uno de los grandes desafíos de los televisores UHD de muchas pulgadas es cómo reproducir el contenido que, originalmente, fue hecho para resoluciones más pequeñas. Por eso, una de las grandes funciones de los procesadores de LG es el escalado o interpolado inteligente de la imagen. A grandes rasgos, el proceso consiste en rellenar de información una imagen de menor resolución para adaptarla a la resolución de la pantalla y suavizar o refinar el escalado para obtener un resultado más natural.
Para que el interpolado sea efectivo, los televisores OLED y NanoCell de LG equipados con deep learning analizan la información del píxel anterior y posterior al píxel “de relleno”, tanto en el mismo fotograma como de los fotogramas anterior y siguiente. Los sistemas dotados de IA se adelantan a las predicciones gracias a los algoritmos de aprendizaje profundo que han sido entrenados de millones de imágenes.
El brillo que se adapta al entorno
Habitualmente, un televisor está configurado para ciertas condiciones de luminosidad. Esta configuración se puede cambiar de forma manual, pero a partir de ahora también se podrá dejar en manos de los algoritmos inteligentes asociados a sensores externos.
La gestión del brillo mediante la inteligencia artificial de los televisores LG se basa en el análisis de las variaciones de brillo de la imagen en base a los bits utilizados y a las curvas perceptuales procedentes de la propia señal de vídeo. A continuación se realizan pequeñas modificaciones según la cantidad de iluminación en la sala en tiempo real.
Además, esta gestión automática del brillo no tiene por qué aplicarse sobre toda la imagen. Por ejemplo, si hay mucha luz en la sala y aumentar el brillo de toda la imagen la descompensaría, el procesador solo eleva el nivel de brillo en algunas de las zonas más oscuras. Así solo se mejoran aquellas zonas donde, por la iluminación de la sala, podríamos perdernos ciertos detalles.
Una IA a los mandos del sonido
El procesador inteligente de los televisores LG actúa sobre el sonido en dos frentes. Por un lado, generando un sonido envolvente en función de las posibilidades de cada sistema de altavoces. Por otro, mediante una ecualización automática que se adapta al espacio en el que está el televisor.
El proceso de Acustic Tuning funciona de forma similar a la ecualización de los antiguos Home Cinema. Esta función es capaz de ecualizar el televisor de manera automática para que se escuche lo mejor posible en función de los muebles y la decoración de la sala. El aparato reproduce un sonido y capta su rebote capta con la información necesaria para generar la ecualización.
Los procesadores capaces de procesar sonido Dolby Atmos (DTS-X) utilizan también deep learning para entender el espacio y captar la ubicación de los usuarios y así ofrecer una experiencia envolvente. Además, y de una forma similar al escalado, es capaz de completar el sonido de un archivo estéreo o 5.1 y convertirlo en Dolby Atmos. Y lo hace, gracias precisamente al as características del sonido DTS-X, sin importar el número de canales de salida del televisor, ya sea un sistema de dos altavoces o un 7.1.
ThinQ y el futuro de la IA en televisión
“Inteligencia artificial es un concepto muy amplio que aplicamos no solo al procesado de imagen y sonido, sino también al reconocimiento de voz o al procesado y ejecución de determinadas acciones como el control de dispositivos externos”, indican desde LG. En el apartado del control por voz, los televisores LG integran el sistema ThinQ, que a su vez soporta dos de los asistentes virtuales más populares: Google Assistant y Amazon Alexa.
Tal como ya explicamos en detalle en este otro artículo, ThinQ nos permite hablar con el televisor para cambiar el modo de imagen, recibir recomendaciones de contenido, cambiar entre canales o plataformas y convertir el televisor en el centro neurálgico de la domótica del hogar, entre otras cosas. ThinQ es quien escucha, recibe e interpreta el mensaje para después preguntarse al asistente de Google. Es capaz de entender una conversación más coloquial y es el único capaz de entender una conversación normal encadenando mensajes (por ejemplo, “muéstrame películas de terror”, y luego, “solo las de Brad Pitt”).
En el futuro cercano, es de esperar que todas estas funciones se amplíen y se mejoren. A medida que la IA sea más inteligente y el aprendizaje automático más profundo, el televisor se adaptará mejor a los gustos del usuario, mejorará la interacción entre dispositivo y personas e, incluso, tomará la iniciativa para recomendarnos una serie nueva (o avisarnos de que nos hemos quedado dormidos). Eso sí, de momento, tendremos que conformarnos con una IA que trabaja para crear la mejor experiencia audiovisual posible. Que no es poco.
Imágenes | LG