Microsoft ha comenzado a bloquear algunos términos como ‘pro vida’, ‘pro elección’ y ‘cuatro veinte’ en la herramienta de generación de imágenes impulsada por su asistente de Inteligencia Artificial (IA) generativa Copilot, en un intento de evitar la obtención de imágenes controvertidas y dañinas que no cumplen las políticas de contenido de la compañía. Un ingeniero de IA de Microsoft denunció recientemente que, tras realizar algunas pruebas para buscar posibles fallos o vulnerabilidades en la herramienta de IA generativa Copilot Designer -capaz de generar imágenes a partir de indicaciones de …