Snapchat ha anunciado que pronto añadirá una marca de agua a todas las imágenes de la plataforma que se hayan creado por Inteligencia Artificial (IA) generativa y lo hará en el momento en que estas creaciones se exporten o se guarden en el carrete de la cámara.
La compañía considera que los usuarios de la plataforma "deben estar informados sobre los tipos de tecnologías que utilizan", para lo que la firma ya utiliza iconos, símbolos y etiquetas que aportan contexto e información cuando estos interactúan en conversaciones basadas en texto con el 'chatbot' My AI, impulsado por ChatGPT.
También ha comentado que tiene "mucho cuidado" a la hora de examinar anuncios relacionados con la política a través de un proceso de revisión humana, que incluye una verificación "exhaustiva" de cualquier uso engañoso del contenido o de la IA generativa.
Para ofrecer más contexto sobre lo que se comparte, ha anunciado que pronto agregará una marca de agua a las imágenes que se hayan creado con herramientas de IA de Snapchat. Esta se verá cuando la imagen se exporte o cuando se guarde en el carrete de la cámara.
De esta manera, los destinatarios de estas imágenes generadas con IA podrán visualizar el logotipo de Snapchat con una estrella en la parte superior derecha, lo que indica que para crear dicho contenido se ha utilizado alguna herramienta impulsada con esta tecnología.
Snapchat ha actualizado su Centro de ayuda para recomendar a los usuarios no eliminar esta marca de agua, ya que supone una violación de los Términos de servicio de la plataforma. Asimismo, ha aconsejado no asumir que los resultados de la IA sean ciertos, debido a que es una tecnología "destinada a alterar o transformar una imagen".
Cumplir con los requisitos de privacidad
Snapchat ha matizado que todas las funciones impulsadas por IA siempre se someten a una revisión estricta para garantizar que cumplan con sus principios de seguridad y privacidad. Por este motivo, cuenta con el llamado equipo rojo de IA, que prueba la coherencia de los resultados de la IA e identifica fallas en los modelos para implementar soluciones de seguridad.
También ha recordado que cuenta con una serie de principios de gobernanza responsable y que ha creado un proceso de revisión de seguridad para detectar y eliminar mensajes potencialmente problemáticos en las primeras etapas de desarrollo de las experiencias de AI Lens. Asimismo, ha dicho que, teniendo en cuenta todo esto, está implementando pruebas adicionales para minimizar los resultados de IA potencialmente sesgados.