Microespana

Copilot Designer crea “imágenes dañinas”, dice el ingeniero de inteligencia artificial de Microsoft

Un ingeniero de inteligencia artificial de Microsoft ha revelado que Copilot, el generador de códigos impulsado por inteligencia artificial de la compañía, ha estado creando imágenes dañinas y ofensivas. El ingeniero, que desea permanecer en el anonimato, compartió con nosotros algunos ejemplos de las imágenes y explicó cómo fueron generadas por Copilot.

Microsoft
Microsoft

Copilot es una herramienta que ayuda a los desarrolladores a escribir código de forma más rápida y sencilla al sugerir líneas de código basadas en el contexto y la intención del usuario. Utiliza una gran red neuronal entrenada en miles de millones de líneas de código de repositorios públicos en GitHub. Copilot puede generar código en varios lenguajes, como Python, JavaScript, Java, C# y más.

Sin embargo, Copilot también puede generar imágenes, si el usuario lo solicita. Por ejemplo, al escribir un comentario como “#generative_image dibújame un gato”, Copilot intentará crear una imagen de un gato y mostrarla en el editor de código. Esta función pretende ser divertida y creativa, pero también puede salir mal.

El ingeniero nos mostró algunas imágenes que Copilot generó cuando le pidió que dibujara diferentes cosas, como animales, celebridades, logotipos y más. Algunas de las imágenes eran inofensivas y divertidas, pero otras eran inquietantes e inapropiadas. Por ejemplo, cuando le pidió a Copilot que dibujara un dragón, generó una imagen de un dragón con una esvástica en el pecho. Cuando le pidió que dibujara un unicornio, generó una imagen de un unicornio con un pene por cuerno. Cuando le pidió que dibujara a Barack Obama, generó una imagen de Obama con rasgos exagerados y una leyenda racista.

El ingeniero dijo que estaba impactado y disgustado por estas imágenes, y que las informó a su gerente y al equipo de Copilot. Dijo que cree que Copilot es una gran herramienta para codificar, pero que no debe usarse para generar imágenes, especialmente sin filtros ni moderación. Dijo que cree que Copilot está aprendiendo del contenido dañino y ofensivo que existe en Internet y que no es consciente de las implicaciones sociales y éticas de su producción.

También dijo que le preocupa el impacto potencial de estas imágenes en los usuarios y el público. Dijo que algunos usuarios podrían sentirse ofendidos o traumatizados por estas imágenes, y que algunos incluso podrían utilizarlas con fines maliciosos. Dijo que estas imágenes podrían dañar la reputación de Microsoft y Copilot, y que podrían socavar la confianza en la tecnología de IA.

Dijo que espera que Microsoft tome medidas para evitar que Copilot genere imágenes dañinas y que espera que otros desarrolladores de IA sean más cuidadosos y responsables al crear herramientas que puedan generar contenido. Dijo que la IA es una tecnología poderosa y prometedora, pero que también debe ser ética y respetuosa.

Un empleado de Microsoft ha planteado serias cuestiones éticas sobre una nueva herramienta de inteligencia artificial que puede crear imágenes a partir de indicaciones de texto. La herramienta, llamada Copilot Designer o Bing Create, se basa en el modelo DALL-E 3 de OpenAI y actualmente está disponible como versión beta en el sitio web de Microsoft.

Según una carta enviada por Shane Jones, director principal de ingeniería de software de Microsoft, a la Comisión Federal de Comercio de EE. UU. y a la junta directiva de Microsoft, la herramienta de inteligencia artificial está generando “contenido nocivo” que viola varias leyes y normas. Jones, que ha trabajado en Microsoft durante más de seis años, dice que ha sido testigo de cómo la herramienta produce imágenes que contienen “sesgos políticos, consumo de alcohol y drogas entre menores de edad, uso indebido de marcas comerciales y derechos de autor corporativos, teorías de conspiración y religión”.

Jones también alega que la herramienta a menudo representa a las mujeres de una manera “sexualmente objetivada”, incluso cuando el mensaje de texto no lo solicita. Dice que le preocupa la falta de control de calidad y supervisión de los resultados de la herramienta de inteligencia artificial, así como la ausencia de advertencias o exenciones de responsabilidad claras para los usuarios que puedan encontrar contenido ofensivo o problemático.

El sitio web de la herramienta no tiene advertencias explícitas sobre los riesgos potenciales del uso de la herramienta de IA, pero sí tiene una sección de preguntas frecuentes que dice: “Hemos implementado controles para evitar la generación de imágenes dañinas. Cuando nuestro sistema detecta que un Una imagen potencialmente dañina podría generarse mediante un mensaje, automáticamente bloquea el mensaje e informa al usuario”.

Sin embargo, Jones afirma que probó exhaustivamente la herramienta y descubrió que no siempre bloquea mensajes dañinos ni informa a los usuarios sobre ellos. Dice que ha intentado repetidamente persuadir a Microsoft para que agregue una clasificación de edad o restricciones a la herramienta, pero sus solicitudes fueron rechazadas.

Jones dice que decidió escribir la carta para alertar a las autoridades y al público sobre las implicaciones éticas de Copilot Designer. Dice que espera que Microsoft tome medidas para abordar los problemas y garantizar que la herramienta de inteligencia artificial se utilice de manera responsable y segura.

No te ibas a dejar el carrito así, ¿verdad?

Introduce tus datos a continuación para guardar tu carrito para más tarde. Y, quién sabe, quizá incluso te enviemos un cordial código de descuento :)

0
    0
    Su carrito
    Tu carrito esta vacíoVolver a la tienda