Un ingeniero de Microsoft ha enviado una advertencia a la Comisión Federal de Comercio (FTC) respecto a Copilot Designer, un generador de imágenes de inteligencia artificial que según informes de CNBC ha generado escenas perturbadoras sin abordar adecuadamente por parte de Microsoft. Estas preocupaciones incluyen la generación de imágenes inapropiadas y potencialmente perjudiciales, como demonios, escenas violentas y referencias a temas sensibles como el aborto y el consumo de drogas por parte de menores. Este informe detalla los hallazgos del ingeniero, Shane Jones, quien ha instado a Microsoft a tomar medidas para abordar estos problemas de seguridad. La situación se suma a las preocupaciones más amplias sobre la ética y la seguridad en el desarrollo y uso de la inteligencia artificial.
Un ingeniero de Microsoft, Shane Jones, ha llevado sus preocupaciones sobre la seguridad de Copilot Designer a la Comisión Federal de Comercio (FTC). Según un informe de CNBC, Jones ha descubierto que este generador de imágenes de inteligencia artificial ha producido escenas perturbadoras que Microsoft no ha abordado adecuadamente. A pesar de las advertencias reiteradas sobre su capacidad para generar imágenes potencialmente perjudiciales, como demonios, escenas de violencia, y referencias a temas sensibles como el aborto y el consumo de drogas por menores, Microsoft se ha negado a retirar la herramienta del mercado.
Además de estas preocupaciones, Jones encontró que Copilot Designer generó imágenes inapropiadas relacionadas con personajes de Disney, como Elsa de Frozen, en entornos como la Franja de Gaza, con edificios destruidos y mensajes políticos. También se han generado imágenes de Elsa vistiendo un uniforme militar con la bandera de Israel. Estos hallazgos son particularmente preocupantes en un contexto en el que la tecnología de inteligencia artificial está siendo cada vez más utilizada en diversos ámbitos, y la falta de salvaguardias adecuadas puede tener consecuencias negativas significativas.
Este informe destaca los esfuerzos de Jones por abordar estas preocupaciones desde diciembre, cuando comenzó a advertir a Microsoft sobre los problemas de seguridad de Copilot Designer. A pesar de sus intentos, y de publicar una carta abierta en LinkedIn sobre el tema, Jones fue contactado por el equipo legal de Microsoft para eliminar la publicación. Sin embargo, él persiste en sus esfuerzos por mejorar la seguridad y la ética en el desarrollo y uso de la inteligencia artificial.
Estos problemas también reflejan preocupaciones más amplias sobre la ética y la seguridad en el desarrollo y uso de la inteligencia artificial. Con incidentes recientes como la generación de imágenes explícitas de celebridades por parte de sistemas de inteligencia artificial, es evidente que se necesitan medidas más rigurosas para garantizar que estas tecnologías se utilicen de manera responsable y segura.