Etiqueta: YouTube

Firefox 71 agrega una imagen en la imagen para YouTube y Netflix | Noticias y opiniones


Mozilla ha lanzado una nueva versión de su navegador Firefox, la versión 71.0, que ofrece una función de imagen en imagen para cualquiera que la use bajo el sistema operativo Windows.

Aquellos que hayan actualizado la última versión del navegador podrán volar sobre el video que se está viendo y ver un botón azul "Imagen en la imagen". Al hacer clic en esta opción, el video se abre en su propia pantalla de ventana, que permanece superpuesta incluso cuando cambia de pestaña.

El modo de imagen en la imagen funcionará en todas las fuentes de video HTML5, incluidos sitios web populares como YouTube y Vimeo, pero también contenido protegido por derechos de autor protegido por la gestión de derechos digitales. como Netflix.

Para los usuarios de Windows, la función de imagen en la imagen de Firefox ahora está disponible; Si usa el navegador que ejecuta Linux o macOS, la función se publicará en la próxima actualización del navegador, programada para enero de 2020.

Mozilla también ha lanzado actualizaciones beta, abriendo una prueba beta adicional para los usuarios de Firefox en los Estados Unidos que quieran probar la última versión de la red privada de Firefox, su próximo servicio VPN.

Para los probadores móviles, las nuevas actualizaciones de Firefox Preview, el navegador experimental Firefox, también se pueden descargar desde Google Play Store. Firefox Preview ahora estará equipado con una protección mejorada contra el seguimiento, defensa del navegador integrada contra el seguimiento de escaneo, criptografía y seguimiento de huellas digitales.

De manera predeterminada, Firefox Preview diferirá al modo "estricto" de Protección de seguimiento mejorada, que según Mozilla, acelera el navegador en un 20% al bloquear pancartas que contienen rastros. Dicho esto, la compañía advirtió que había "una posibilidad de que algunos contenidos del sitio web no funcionen".

Los usuarios pueden volver al modo "Estándar" si lo desean, lo que impide que los rastreadores de terceros reutilicen cookies para identificar a un usuario, pero permite que los rastreadores se ejecuten en el sitio.

Otras actualizaciones de la aplicación Vista previa incluyen Firefox Site Protections, que permite a los usuarios ver el tipo de rastros (como seguidores de terceros, seguidores de redes sociales o criptomonedas) que Firefox Preview también bloquea en un versión ligera del tablero de escritorio. como un widget de búsqueda personalizable que los usuarios de Android pueden agregar a su pantalla de inicio y una "pestaña de envío" que permite a los usuarios enviar pestañas de una a otra. Dispositivo Android a otro, siempre que estén conectados a la cuenta de Firefox del usuario.

YouTube suaviza la política sobre violencia en videojuegos | Noticias y opiniones


El contenido violento con guión o simulado en los juegos ahora se tratará de la misma manera que otros tipos de contenido con guión, lo que significa menos restricciones automáticas de edad para los videos.


Genérico de YouTube (foto de Olly Curtis / Future a través de Getty Images)

(Foto de Olly Curtis / Future vía Getty Images)

Las emisoras de YouTube que se centran en los videojuegos han recibido buenas noticias hoy, YouTube está cambiando las reglas que rigen la publicación de contenido violento simulado.

Como informa The Verge, ayer entró en vigencia una nueva política de YouTube. Establece que "el contenido violento con guión o simulado que se encuentra en los videojuegos se tratará de la misma manera que otros tipos de contenido con guión". Esto significa que se aprobarán muchos más videos en lugar de limitarse. Las restricciones a la violencia en los juegos se están relajando, pero el contenido seguirá sujeto a restricciones de edad, "si las imágenes violentas o sangrientas son el único propósito del video".

YouTube quisiera señalar que todavía mantiene una "barra alta para proteger al público de la violencia real", pero esto alinea los juegos con otras formas de entretenimiento, incluidos programas de televisión y películas transmitidas en el servicio.

Esto no se aplica a los anunciantes. Los videos que se consideran demasiado violentos para los anunciantes pueden ser desmonetizados incluso si cumplen con las políticas de YouTube. Para los banners que dependen de los ingresos publicitarios, este es un problema importante. La CEO de YouTube, Susan Wojcicki, sin embargo, está tratando de resolver el problema. Ella dice: "Estamos trabajando para identificar a los anunciantes que estén interesados ​​en contenido más complejo, como un vendedor que busca promocionar una película con clasificación R, para que pueda compararse con los creadores. anuncios … En su primer mes, este programa ha generado cientos de miles de dólares en anuncios en videos con íconos amarillos (contenido desmonedado) ".

Según Wojcicki, el juego no interesa a los anunciantes. Generalmente eligen no participar en "temas delicados", que es el desafío. Si YouTube puede encontrar una manera de vincular a los anunciantes con las transmisiones de juegos, incluso si incluyen contenido violento simulado, podríamos ver muchos más emisores de juegos acudiendo a la plataforma.

Google limitará la orientación de los anuncios de búsqueda, YouTube | Noticias y opiniones


Google prohibirá los anuncios políticos que se dirijan a los usuarios en función de sus registros de votación pública o afiliaciones políticas.

En cambio, los anuncios de campaña en Google, YouTube y la red publicitaria de la compañía solo podrán dirigirse a los usuarios en función de su edad, sexo y código postal, dijo la compañía en un comunicado. Artículo publicado el miércoles en un blog.

La compañía está haciendo este cambio al destacar las "preocupaciones y debates recientes" con respecto a la publicidad política. El escrutinio se centra en Facebook y en cómo la red social permite que los candidatos políticos publiquen anuncios sin ninguna verificación de hechos.

Según las reglas de Facebook, los anunciantes políticos también pueden "microteccionar" usuarios específicos con anuncios, mientras que todos nunca conocerán el contenido. Los críticos, incluido el presidente de la Comisión Federal de Elecciones, dicen que es un problema: significa que la publicidad política puede propagar mentiras a algunos votantes sin que el resto del público lo cuestione.

En el caso de Google, la compañía afirma que nunca permitió la "microtargeting granular" de los anuncios políticos. Sin embargo, ofreció a los compradores de anuncios la capacidad de dirigirse a los usuarios en función de su registro de votación pública o afiliación política, como "izquierda, derecha o independiente".

Para determinar el afiliado, Google le dijo a PCMag que la compañía había revisado la información personal agregada por los usuarios a sus Cuentas de Google, "los datos de los anunciantes socios de Google y la estimación de sus intereses de Google ". (Si esto suena aterrador, puede controlar o deshabilitar la personalización de anuncios).

Pero ahora, la compañía planea eliminar las opciones de orientación en una semana, comenzando con el Reino Unido, antes de que Google aplique restricciones en todo el mundo en enero. La compañía se asegura de que el público en general pueda ver fácilmente qué anuncios políticos hay en Internet.

"Independientemente del costo o impacto del gasto en nuestras plataformas, creemos que estos cambios ayudarán a generar confianza en la publicidad política digital y los procesos electorales en todo el mundo ", escribió el vicepresidente de Google. Scott Spencer, en el blog.

La compañía también limita las mentiras que se pueden generar durante un anuncio político. Google planea aclarar que ya no aceptará anuncios que contengan medios manipulados o manipulados, como videos generados por AI. Los anuncios que intentan engañar el proceso del censo o disuadir a las personas de confiar o votar en una elección ahora están explícitamente prohibidos.

Pero no espere que Google reprima ningún anuncio político que contenga afirmaciones controvertidas, exageraciones o incluso mentiras. "Por supuesto, reconocemos que un diálogo político sólido es una parte importante de la democracia, y nadie puede decidir razonablemente sobre cada reclamo político, contrademanda e insinuación", agregó Spencer. "Por lo tanto, esperamos que la cantidad de anuncios políticos en los que actuamos sea muy limitada, pero continuaremos haciéndolo por violaciones claras".

El blog fue publicado por Google, porque Facebook también consideraría una prohibición que impida que los anuncios políticos se dirijan a usuarios específicos. Sin embargo, la campaña de reelección del presidente Donald Trump parece ser contra tal prohibición

Twitter, por otro lado, recientemente decidió poner fin a toda publicidad política de candidatos, partidos y grupos políticos.

¿El algoritmo de YouTube conduce a la radicalización?


(Foto de Chris McGrath / Getty Images)

Ahora sabemos que el tabaco es dañino, pero durante años, los cabilderos han luchado contra los médicos detrás del escenario del Congreso para evitar regulaciones que perjudiquen el resultado final de la industria del tabaco. El consumidor promedio no estaba al tanto de estas peleas; A mediados de la década de 1960, más estadounidenses fumaban que en cualquier otro momento de la historia. Pero al final, fue difícil escapar del hecho de que los cigarrillos son mortales.

La situación es la misma con YouTube y su algoritmo de recomendación, explica Guillaume Chaslot, ex empleado de Google.

Aunque la plataforma para compartir videos ha cambiado la forma en que su motor de referencia proporciona contenido asociado, los problemas son inherentes al ADN de YouTube, dijo Chaslot en la siguiente dirección: MozFest conferencia de internet en Londres recientemente. La única forma de combatirlos es regular y aceptar que la plataforma en sí está perjudicando a los espectadores.

En febrero de 2019, YouTube tuvo que finalizar 400 canales y deshabilitar los comentarios en millones de videos con menores, ya que se descubrió que los pedófilos estaban usando el sitio web para intercambiar información de contacto y enlaces a contenido pornográfico. con niños En los comentarios de estos videos, los usuarios especificarían dónde mostraron los niños sus piernas o espaldas desnudas.

Detrás de escena, el algoritmo de YouTube, que sugiere imparcialmente ofrecer más videos a sus usuarios, estaba listo para transmitir más videos infantiles a estos pedófilos a través del aprendizaje automático.

YouTube genérico

(Publicación futura / Colaborador / Getty)

El año pasado, YouTube dijo que era contratación 10.000 miembros adicionales del personal se centrarán en la "seguridad" en la plataforma. Y los usuarios pueden reportar contenido objetable; si YouTube acepta, se elimina.

Según Chaslot, sin embargo, el algoritmo de YouTube va en contra de eso. Es poco probable que un pedófilo reporte contenido que le agrade, así como es poco probable que un terrorista reporte videos extremistas. Además, a medida que el algoritmo adquiere más conocimiento sobre los usuarios, es cada vez más probable que recomiende este tipo de videos a los usuarios que los apreciarán y es menos probable que los muestren a quienes no les gusten.

Además, el sistema de informes no considera que los videos se vuelvan a importar o se modifiquen ligeramente para evitar la detección. Por ejemplo, después de la transmisión en vivo de Facebook de la filmación de Christchurch, los clips se compartieron en otros sitios de redes sociales, incluido YouTube.

Gran parte de nuestro conocimiento del algoritmo de YouTube proviene de lo que nos dice la compañía. En 2012, la compañía cambió su algoritmo de vistas de conducción a tiempo de conducción. En 2018, YouTube cambió aún más su algoritmo para recomendar más "organizaciones periodísticas confiables" después de promover teorías de conspiración tras el tiroteo de Parkland (y nuevamente en 2019).

YouTube dice que estos últimos cambios también incluyen "medir los gustos, disgustos, investigaciones y el tiempo dedicado" en la plataforma. Chaslot no está de acuerdo, diciendo que la única medida real que cuenta para YouTube es el tiempo que los usuarios pasan en YouTube. Cuanto más tiempo pasan las personas en el sitio, más anuncios se muestran y más gana dinero la empresa.

AlgoTransparency

Chaslot teme que las personas "no tengan idea de lo que hace el algoritmo". Es por eso que desarrolló AlgoTransparency, que intenta simular el algoritmo de YouTube.

La herramienta fue utilizada por El guardián para una historia sobre cómo YouTube está llevando a los usuarios a contenido extremo que nunca habrían visto antes. Comenzando con un video aleatorio en la plataforma, utiliza la función "Próximo" de YouTube miles de veces para ver a dónde lleva el sistema el usuario. Chaslot descubrió que la respuesta era un contenido político extremo.

AlgoTransparency

Los guardias El informe reveló que tres de los canales recomendados con mayor frecuencia pertenecían al famoso teórico de la conspiración Alex Jones, al hiperpartidista Fox News y a un canal llamado "Donald Trump Speeches & Press Conference".

YouTube no está de acuerdo con los argumentos de Chaslot en absoluto. Un portavoz dijo que el algoritmo de la compañía es "optimizar (d) para la satisfacción y calidad de la información", y no mirar el tiempo, que Chaslot describió mal su posición en YouTube , y que ninguna parte del sistema de recomendaciones que teníamos cuando el Sr. Chaslot era un empleado de Google ahora se usa en el sistema de recomendaciones de YouTube. "

Chaslot fue ingeniero de software para la compañía de octubre de 2010 a octubre de 2013 y ahora es miembro de Mozilla, que patrocinó MozFest, además de su trabajo en AlgoTransparency.

"Observamos nuestros sistemas, basados ​​en el contenido realmente popular (el Sr. Chaslot usa canales de semillas subjetivos), luego observamos si estaban apuntando a un nicho o no y también analizamos categorías específicas, como "Teorías de la tierra plana u otras teorías de conspiración, y concluyó que las afirmaciones del Sr. Chaslot no eran ciertas", dijo YouTube.

Chaslot admite que hay fallas en su método. "Si el algoritmo prefiere un video (en el sentido de que ya es popular en YouTube), se lo recomendará varias veces", dijo. "No sé exactamente cuántas personas (un video en particular) se han mostrado, solo sé cuántos canales diferentes lo han recomendado, YouTube puede decir que no está bien". Es genial ", digo", dame resultados reales. Tienes los datos, demuéstrame que estoy equivocado. "

Contenido sensacional y provocativo FTW

Otro factor a considerar es que el contenido que está a punto de violar los términos de uso de YouTube tiene un mejor rendimiento en la plataforma que el contenido tradicional, y YouTube ha tenido que tomar medidas. para que ya no se recomienden videos dudosos. "Es mucho más fácil hacer clickbait, buen clickbait, cuando no te importa la verdad", dijo Chaslot.

YouTube no está solo aquí. En 2018, Mark Zuckerberg escribió en un artículo en Facebook: "Uno de los mayores problemas que enfrentan las redes sociales es que, cuando no están controladas, las personas los involucran de maneras que desproporcionado con contenido más sensacionalista y provocativo. Nuestra investigación sugiere que lo que está permitido, cuando el contenido se acerca a esta línea, las personas lo usarán más en promedio, incluso cuando nos digan más tarde que no les gusta el contenido ".

En entrevistas con Bloomberg, los empleados de YouTube habrían descubierto que una categoría hipotética de "todo bien" era tan popular como las verticales de música, deportes y juegos de azar en YouTube con respecto al compromiso. . También se alentó a los empleados a no "romper el bote" porque cualquier idea de que YouTube estaría al tanto del contenido extremista en su plataforma y no se haría responsable de ello disminuiría el argumento de que actuaría como una plataforma y no como un proveedor de contenido.

Para Chaslot, la única solución a este problema es la regulación y la transparencia: posibilidad de que los gobiernos soliciten información sobre la cantidad de veces que un video ha sido recomendado a los usuarios y una mejor comprensión por parte del público en general de la operación de la plataforma de alojamiento de video.

"Mientras no sepamos qué está sucediendo en YouTube, no podemos hacer un cambio, ¿qué pediríamos cambiar?" Necesitamos una regulación extremadamente simple, como la capacidad de saber con qué frecuencia recomiendan algo a alguien ".