/ miércoles 9 de marzo de 2022

La TV del futuro será más personalizada

La BBC trabaja con una universidad para crear programas cuyos contenidos sean más adaptables a las necesidades y preferencias de cada televidente

“Mira hacia otro lado ahora si no quieres saber el marcador”, dicen algunos noticiarios antes de informar los resultados de fútbol. Pero imagina si tu televisor supiera a qué equipos sigues, qué resultados evitar, o si supiera pasar por alto el fútbol por completo y hablarte de otra cosa. Con la personalización de los medios en la que está trabajando la BBC, ese tipo de asuntos están más cerca de ser posibles.

Dicha personalización va más allá de lo que ya hacen plataformas como BBC iPlayer o Netflix, que sugieren contenidos en función de lo que una persona ha visto anteriormente.

Aquí de lo que se trata es de personalización ya dentro de los contenidos, donde se podría incluir ajustar la duración del programa, por ejemplo, ver una versión abreviada o extendida, agregar gráficos o mejorar el diálogo si la capacidad auditiva no es la óptima, o bien proporcionar información adicional relacionada con el programa.

La gran diferencia es que estas características no serían genéricas, sino diseñadas de acuerdo con los propios gustos de las personas y adaptados a sus necesidades.

Para ofrecer nuevos tipos de personalización de medios a las audiencias a escala, estas características estarán impulsadas por inteligencia artificial (IA), la cual funciona a través del aprendizaje automático que realiza tareas basadas en información de grandes conjuntos de datos que se alimentan para entrenar el sistema o algoritmo.

Ese es el enfoque de la asociación entre la BBC y el Centro de Procesamiento de la Visión, el Habla y la Señal de la Universidad de Surrey, que lleva el nombre de Inteligencia Artificial para Experiencias de Medios Personalizadas, o AI4ME, y que busca ayudar a la cadena a servir mejor al público, especialmente a las nuevas audiencias.

Los principios de IA de la Organización para la Cooperación y el Desarrollo Económicos (OCDE) requieren que esta tecnología beneficie a la humanidad, incorporando equidad, seguridad, transparencia y responsabilidad.

Sin embargo, se acusa cada vez más a los sistemas de IA de automatizar la desigualdad como consecuencia de los sesgos en su formación, lo que puede reforzar los prejuicios existentes y poner en desventaja a los grupos vulnerables.

Las nuevas características estarán impulsadas por inteligencia artificial / Foto: Reuters

Esto puede tomar la forma de sesgo de género en el reclutamiento o disparidades raciales en las tecnologías de reconocimiento facial, por ejemplo.

Otro problema potencial con los sistemas de IA es lo que llamamos generalización: La primera víctima mortal reconocida de un coche autónomo es un ejemplo de ello.

Por lo tanto, debemos seguir capacitando a los sistemas de IA a medida que aprendemos más sobre su comportamiento en el mundo real y nuestros resultados deseados. Es imposible dar instrucciones a una máquina para todas las eventualidades e imposible predecir todas las posibles consecuencias no deseadas.

Aún no sabemos completamente qué tipo de problemas podría presentar nuestra IA en el ámbito de los medios personalizados y eso es lo que se espera descubrir a través de este proyecto.

Para diseñar bien este sistema de personalización, se requiere la participación pública desde el principio. Esto es vital para brindar una perspectiva amplia a los equipos técnicos que pueden sufrir de métricas de rendimiento definidas de manera limitada, "pensamiento grupal" dentro de sus departamentos y falta de diversidad.

Surrey y la BBC están trabajando para probar un enfoque para atraer personas (personas normales, no expertos) para supervisar el desarrollo de la IA en la personalización de los medios.

Estamos probando "consejos de ciudadanos" para crear un diálogo, donde la información que obtengamos de los consejos informará el desarrollo de las tecnologías. Nuestro consejo ciudadano tendrá representación diversa e independencia de la BBC.

Los temas brindan al consejo ciudadano una forma de revisar tecnologías específicas contra cada uno de los principios de IA de la OCDE y debatir los usos aceptables de los datos personales en la personalización de los medios, independientemente de los intereses corporativos o políticos.

Hay riesgos. Es posible que no reflejemos adecuadamente la diversidad, puede haber malentendidos en torno a las tecnologías propuestas o falta de voluntad para escuchar los puntos de vista de los demás. ¿Qué pasa si los miembros del consejo no pueden llegar a un consenso o comienzan a desarrollar un sesgo?

Creemos que este enfoque puede traer amplias consideraciones éticas al ámbito de los desarrolladores de ingeniería durante las primeras etapas del diseño de sistemas complejos de IA. Nuestros participantes no están comprometidos con los intereses de las grandes tecnologías o los gobiernos, pero transmiten los valores y creencias de la sociedad.

* Especialista de la Universidad de Surrey.



ESCUCHA EL PODCAST⬇️

Disponible en: Acast, Spotify, Apple Podcasts, Google Podcasts, Deezer y Amazon Music



Lee también otros contenidos de Normal ⬇️

“Mira hacia otro lado ahora si no quieres saber el marcador”, dicen algunos noticiarios antes de informar los resultados de fútbol. Pero imagina si tu televisor supiera a qué equipos sigues, qué resultados evitar, o si supiera pasar por alto el fútbol por completo y hablarte de otra cosa. Con la personalización de los medios en la que está trabajando la BBC, ese tipo de asuntos están más cerca de ser posibles.

Dicha personalización va más allá de lo que ya hacen plataformas como BBC iPlayer o Netflix, que sugieren contenidos en función de lo que una persona ha visto anteriormente.

Aquí de lo que se trata es de personalización ya dentro de los contenidos, donde se podría incluir ajustar la duración del programa, por ejemplo, ver una versión abreviada o extendida, agregar gráficos o mejorar el diálogo si la capacidad auditiva no es la óptima, o bien proporcionar información adicional relacionada con el programa.

La gran diferencia es que estas características no serían genéricas, sino diseñadas de acuerdo con los propios gustos de las personas y adaptados a sus necesidades.

Para ofrecer nuevos tipos de personalización de medios a las audiencias a escala, estas características estarán impulsadas por inteligencia artificial (IA), la cual funciona a través del aprendizaje automático que realiza tareas basadas en información de grandes conjuntos de datos que se alimentan para entrenar el sistema o algoritmo.

Ese es el enfoque de la asociación entre la BBC y el Centro de Procesamiento de la Visión, el Habla y la Señal de la Universidad de Surrey, que lleva el nombre de Inteligencia Artificial para Experiencias de Medios Personalizadas, o AI4ME, y que busca ayudar a la cadena a servir mejor al público, especialmente a las nuevas audiencias.

Los principios de IA de la Organización para la Cooperación y el Desarrollo Económicos (OCDE) requieren que esta tecnología beneficie a la humanidad, incorporando equidad, seguridad, transparencia y responsabilidad.

Sin embargo, se acusa cada vez más a los sistemas de IA de automatizar la desigualdad como consecuencia de los sesgos en su formación, lo que puede reforzar los prejuicios existentes y poner en desventaja a los grupos vulnerables.

Las nuevas características estarán impulsadas por inteligencia artificial / Foto: Reuters

Esto puede tomar la forma de sesgo de género en el reclutamiento o disparidades raciales en las tecnologías de reconocimiento facial, por ejemplo.

Otro problema potencial con los sistemas de IA es lo que llamamos generalización: La primera víctima mortal reconocida de un coche autónomo es un ejemplo de ello.

Por lo tanto, debemos seguir capacitando a los sistemas de IA a medida que aprendemos más sobre su comportamiento en el mundo real y nuestros resultados deseados. Es imposible dar instrucciones a una máquina para todas las eventualidades e imposible predecir todas las posibles consecuencias no deseadas.

Aún no sabemos completamente qué tipo de problemas podría presentar nuestra IA en el ámbito de los medios personalizados y eso es lo que se espera descubrir a través de este proyecto.

Para diseñar bien este sistema de personalización, se requiere la participación pública desde el principio. Esto es vital para brindar una perspectiva amplia a los equipos técnicos que pueden sufrir de métricas de rendimiento definidas de manera limitada, "pensamiento grupal" dentro de sus departamentos y falta de diversidad.

Surrey y la BBC están trabajando para probar un enfoque para atraer personas (personas normales, no expertos) para supervisar el desarrollo de la IA en la personalización de los medios.

Estamos probando "consejos de ciudadanos" para crear un diálogo, donde la información que obtengamos de los consejos informará el desarrollo de las tecnologías. Nuestro consejo ciudadano tendrá representación diversa e independencia de la BBC.

Los temas brindan al consejo ciudadano una forma de revisar tecnologías específicas contra cada uno de los principios de IA de la OCDE y debatir los usos aceptables de los datos personales en la personalización de los medios, independientemente de los intereses corporativos o políticos.

Hay riesgos. Es posible que no reflejemos adecuadamente la diversidad, puede haber malentendidos en torno a las tecnologías propuestas o falta de voluntad para escuchar los puntos de vista de los demás. ¿Qué pasa si los miembros del consejo no pueden llegar a un consenso o comienzan a desarrollar un sesgo?

Creemos que este enfoque puede traer amplias consideraciones éticas al ámbito de los desarrolladores de ingeniería durante las primeras etapas del diseño de sistemas complejos de IA. Nuestros participantes no están comprometidos con los intereses de las grandes tecnologías o los gobiernos, pero transmiten los valores y creencias de la sociedad.

* Especialista de la Universidad de Surrey.



ESCUCHA EL PODCAST⬇️

Disponible en: Acast, Spotify, Apple Podcasts, Google Podcasts, Deezer y Amazon Music



Lee también otros contenidos de Normal ⬇️

Policiaca

FGE: 6 muertos y 10 heridos el saldo de ataque en Dbar

La FGE Tabasco informó que el resultado del ataque en Dbar dejó un saldo de seis muertos y 10 heridos

Policiaca

“¡Todos contra el suelo!”: Testimonio de empleada de DBar

Una empleada del antro DBar, donde se registró una balacera durante la madrugada, comparte su testimonio con El Heraldo de Tabasco

Policiaca

Atacan boda en Jalapa: Dejan un muerto y dos heridos

Hombres armados irrumpieron en una boda en Jalapa donde dejaron una persona muerta y dos heridas

Policiaca

Padres de familia llegaron a Dbar a buscar a sus hijos

Seis fallecidos y dos heridos al menos dejó un ataque armado durante la madrugada en Dbar Villahermosa

Local

Más de un millón de tabasqueños viven en pobreza

Más de un millón de tabasqueños se encuentran en pobreza, señalan cifras oficiales

Cultura

Colectivos feministas abordan el tema de la violencia en universidades

La violencia en universidades es un tema que abordan los colectivos feministas en Tabasco