/ miércoles 9 de marzo de 2022

La TV del futuro será más personalizada

La BBC trabaja con una universidad para crear programas cuyos contenidos sean más adaptables a las necesidades y preferencias de cada televidente

“Mira hacia otro lado ahora si no quieres saber el marcador”, dicen algunos noticiarios antes de informar los resultados de fútbol. Pero imagina si tu televisor supiera a qué equipos sigues, qué resultados evitar, o si supiera pasar por alto el fútbol por completo y hablarte de otra cosa. Con la personalización de los medios en la que está trabajando la BBC, ese tipo de asuntos están más cerca de ser posibles.

Dicha personalización va más allá de lo que ya hacen plataformas como BBC iPlayer o Netflix, que sugieren contenidos en función de lo que una persona ha visto anteriormente.

Aquí de lo que se trata es de personalización ya dentro de los contenidos, donde se podría incluir ajustar la duración del programa, por ejemplo, ver una versión abreviada o extendida, agregar gráficos o mejorar el diálogo si la capacidad auditiva no es la óptima, o bien proporcionar información adicional relacionada con el programa.

La gran diferencia es que estas características no serían genéricas, sino diseñadas de acuerdo con los propios gustos de las personas y adaptados a sus necesidades.

Para ofrecer nuevos tipos de personalización de medios a las audiencias a escala, estas características estarán impulsadas por inteligencia artificial (IA), la cual funciona a través del aprendizaje automático que realiza tareas basadas en información de grandes conjuntos de datos que se alimentan para entrenar el sistema o algoritmo.

Ese es el enfoque de la asociación entre la BBC y el Centro de Procesamiento de la Visión, el Habla y la Señal de la Universidad de Surrey, que lleva el nombre de Inteligencia Artificial para Experiencias de Medios Personalizadas, o AI4ME, y que busca ayudar a la cadena a servir mejor al público, especialmente a las nuevas audiencias.

Los principios de IA de la Organización para la Cooperación y el Desarrollo Económicos (OCDE) requieren que esta tecnología beneficie a la humanidad, incorporando equidad, seguridad, transparencia y responsabilidad.

Sin embargo, se acusa cada vez más a los sistemas de IA de automatizar la desigualdad como consecuencia de los sesgos en su formación, lo que puede reforzar los prejuicios existentes y poner en desventaja a los grupos vulnerables.

Las nuevas características estarán impulsadas por inteligencia artificial / Foto: Reuters

Esto puede tomar la forma de sesgo de género en el reclutamiento o disparidades raciales en las tecnologías de reconocimiento facial, por ejemplo.

Otro problema potencial con los sistemas de IA es lo que llamamos generalización: La primera víctima mortal reconocida de un coche autónomo es un ejemplo de ello.

Por lo tanto, debemos seguir capacitando a los sistemas de IA a medida que aprendemos más sobre su comportamiento en el mundo real y nuestros resultados deseados. Es imposible dar instrucciones a una máquina para todas las eventualidades e imposible predecir todas las posibles consecuencias no deseadas.

Aún no sabemos completamente qué tipo de problemas podría presentar nuestra IA en el ámbito de los medios personalizados y eso es lo que se espera descubrir a través de este proyecto.

Para diseñar bien este sistema de personalización, se requiere la participación pública desde el principio. Esto es vital para brindar una perspectiva amplia a los equipos técnicos que pueden sufrir de métricas de rendimiento definidas de manera limitada, "pensamiento grupal" dentro de sus departamentos y falta de diversidad.

Surrey y la BBC están trabajando para probar un enfoque para atraer personas (personas normales, no expertos) para supervisar el desarrollo de la IA en la personalización de los medios.

Estamos probando "consejos de ciudadanos" para crear un diálogo, donde la información que obtengamos de los consejos informará el desarrollo de las tecnologías. Nuestro consejo ciudadano tendrá representación diversa e independencia de la BBC.

Los temas brindan al consejo ciudadano una forma de revisar tecnologías específicas contra cada uno de los principios de IA de la OCDE y debatir los usos aceptables de los datos personales en la personalización de los medios, independientemente de los intereses corporativos o políticos.

Hay riesgos. Es posible que no reflejemos adecuadamente la diversidad, puede haber malentendidos en torno a las tecnologías propuestas o falta de voluntad para escuchar los puntos de vista de los demás. ¿Qué pasa si los miembros del consejo no pueden llegar a un consenso o comienzan a desarrollar un sesgo?

Creemos que este enfoque puede traer amplias consideraciones éticas al ámbito de los desarrolladores de ingeniería durante las primeras etapas del diseño de sistemas complejos de IA. Nuestros participantes no están comprometidos con los intereses de las grandes tecnologías o los gobiernos, pero transmiten los valores y creencias de la sociedad.

* Especialista de la Universidad de Surrey.



ESCUCHA EL PODCAST⬇️

Disponible en: Acast, Spotify, Apple Podcasts, Google Podcasts, Deezer y Amazon Music



Lee también otros contenidos de Normal ⬇️

“Mira hacia otro lado ahora si no quieres saber el marcador”, dicen algunos noticiarios antes de informar los resultados de fútbol. Pero imagina si tu televisor supiera a qué equipos sigues, qué resultados evitar, o si supiera pasar por alto el fútbol por completo y hablarte de otra cosa. Con la personalización de los medios en la que está trabajando la BBC, ese tipo de asuntos están más cerca de ser posibles.

Dicha personalización va más allá de lo que ya hacen plataformas como BBC iPlayer o Netflix, que sugieren contenidos en función de lo que una persona ha visto anteriormente.

Aquí de lo que se trata es de personalización ya dentro de los contenidos, donde se podría incluir ajustar la duración del programa, por ejemplo, ver una versión abreviada o extendida, agregar gráficos o mejorar el diálogo si la capacidad auditiva no es la óptima, o bien proporcionar información adicional relacionada con el programa.

La gran diferencia es que estas características no serían genéricas, sino diseñadas de acuerdo con los propios gustos de las personas y adaptados a sus necesidades.

Para ofrecer nuevos tipos de personalización de medios a las audiencias a escala, estas características estarán impulsadas por inteligencia artificial (IA), la cual funciona a través del aprendizaje automático que realiza tareas basadas en información de grandes conjuntos de datos que se alimentan para entrenar el sistema o algoritmo.

Ese es el enfoque de la asociación entre la BBC y el Centro de Procesamiento de la Visión, el Habla y la Señal de la Universidad de Surrey, que lleva el nombre de Inteligencia Artificial para Experiencias de Medios Personalizadas, o AI4ME, y que busca ayudar a la cadena a servir mejor al público, especialmente a las nuevas audiencias.

Los principios de IA de la Organización para la Cooperación y el Desarrollo Económicos (OCDE) requieren que esta tecnología beneficie a la humanidad, incorporando equidad, seguridad, transparencia y responsabilidad.

Sin embargo, se acusa cada vez más a los sistemas de IA de automatizar la desigualdad como consecuencia de los sesgos en su formación, lo que puede reforzar los prejuicios existentes y poner en desventaja a los grupos vulnerables.

Las nuevas características estarán impulsadas por inteligencia artificial / Foto: Reuters

Esto puede tomar la forma de sesgo de género en el reclutamiento o disparidades raciales en las tecnologías de reconocimiento facial, por ejemplo.

Otro problema potencial con los sistemas de IA es lo que llamamos generalización: La primera víctima mortal reconocida de un coche autónomo es un ejemplo de ello.

Por lo tanto, debemos seguir capacitando a los sistemas de IA a medida que aprendemos más sobre su comportamiento en el mundo real y nuestros resultados deseados. Es imposible dar instrucciones a una máquina para todas las eventualidades e imposible predecir todas las posibles consecuencias no deseadas.

Aún no sabemos completamente qué tipo de problemas podría presentar nuestra IA en el ámbito de los medios personalizados y eso es lo que se espera descubrir a través de este proyecto.

Para diseñar bien este sistema de personalización, se requiere la participación pública desde el principio. Esto es vital para brindar una perspectiva amplia a los equipos técnicos que pueden sufrir de métricas de rendimiento definidas de manera limitada, "pensamiento grupal" dentro de sus departamentos y falta de diversidad.

Surrey y la BBC están trabajando para probar un enfoque para atraer personas (personas normales, no expertos) para supervisar el desarrollo de la IA en la personalización de los medios.

Estamos probando "consejos de ciudadanos" para crear un diálogo, donde la información que obtengamos de los consejos informará el desarrollo de las tecnologías. Nuestro consejo ciudadano tendrá representación diversa e independencia de la BBC.

Los temas brindan al consejo ciudadano una forma de revisar tecnologías específicas contra cada uno de los principios de IA de la OCDE y debatir los usos aceptables de los datos personales en la personalización de los medios, independientemente de los intereses corporativos o políticos.

Hay riesgos. Es posible que no reflejemos adecuadamente la diversidad, puede haber malentendidos en torno a las tecnologías propuestas o falta de voluntad para escuchar los puntos de vista de los demás. ¿Qué pasa si los miembros del consejo no pueden llegar a un consenso o comienzan a desarrollar un sesgo?

Creemos que este enfoque puede traer amplias consideraciones éticas al ámbito de los desarrolladores de ingeniería durante las primeras etapas del diseño de sistemas complejos de IA. Nuestros participantes no están comprometidos con los intereses de las grandes tecnologías o los gobiernos, pero transmiten los valores y creencias de la sociedad.

* Especialista de la Universidad de Surrey.



ESCUCHA EL PODCAST⬇️

Disponible en: Acast, Spotify, Apple Podcasts, Google Podcasts, Deezer y Amazon Music



Lee también otros contenidos de Normal ⬇️

Gossip

¡Malcolm llega a Hermosillo! Frankie Muniz confirmado para el DesertCon 2025

El popular actor estadounidense es el primer invitado internacional confirmado para encabezar la convención de anime, comics y cultura pop más grande del estado

Local

Atención a migrantes en Sonora: La Secretaría de Salud supera las 20 mil asistencias

Actualmente no hay un aumento significativo de personas en situación de movilidad; sin embargo, se mantiene la vigilancia de las caravanas

Local

LitioMX: La verdad detrás del presupuesto asignado

Al menos cinco plazas permanentes y nueve eventuales de mando absorberán los 12.9 millones de pesos propuestos como presupuesto para 2025 a Litio para México

Local

Nuevas vías alternas por construcción del paso a desnivel

El cruce de Colosio y Solidaridad, se efectuarán las adecuaciones necesarias en materia de rutas alternas para el control del tráfico vehicular

Policiaca

Se incendian dos vehículos en la colonia Modelo, presuntamente provocados por una persona

Dos vehículos fueron incendiados esta mañana en distintos puntos de la colonia Modelo, por lo que elementos de Bomberos de Hermosillo acudieron a sofocarlo

Gossip

Carín León confirma su presentación en Viña del Mar 2025

El cantante hermosillense formará parte de la cartelera estelar de la próxima edición del festival latinoamericano más importante del mundo