Abierto AIla empresa creando ChatGPTha desarrollado un plan para evitar que sus herramientas se utilicen para financiar desinformación electoral, y otro para preparar a los votantes de 50 años para emitir su voto en las elecciones nacionales.
Las medidas de protección que aplica la startup de inteligencia artificial con sede en San Francisco incluye una combinación de políticas preexistentes e iniciativas recientes para evitar el uso independiente de nuestras populares herramientas de IA generativa. Estas herramientas pueden crear texto e imágenes en tiempo real, pero también pueden usarse para crear mensajes escritos o fotografías falsos que generan errores.
Los métodos, explorados en su blog esta semana, se aplican específicamente a OpenAI, así como a un universo en expansión de empresas que desarrollan herramientas avanzadas de IA generativa. La compañía, que anunció que estaba en su luna de miel, dijo que continuaría trabajando con su «trabajo de seguridad de plataforma con información electoral precisa del alcalde, una cuidadosa aplicación de políticas considerada y una mejora de la transparencia».
La empresa dice que prohíbe el uso de su tecnología para crear chatbots que pasa por los propios candidatos o gobernadores, para postergar el funcionamiento del sistema de votación o para disuadir a la gente de votar. Como los méritos del poder persuasivo de su tecnología no deben ser investigados, no permite a sus usuarios crear aplicaciones para campañas políticas o grupos de creadores.
A partir de estos “principios de esto”, OpenAI piensa en una marca de agua digital para las imágenes de IA creadas con su generador LOSA. Esto marca permanentemente el contenido con información sobre su origen, lo que facilita identificar si una imagen aparece en otro lugar de la web utilizando la herramienta de IA.
La empresa también fue informada que está colaborando con la Asociación Nacional de Secretarios de Estado para dirigir a todos los usuarios de ChatGPT que tienen preguntas logísticas sobre las opciones que tienen la información rigurosa que encuentran en CanIVote.orgEl sitio web no apoya a este grupo.
Mekela Panditharatneresponsable del programa democrático de la Centro Brennan para la JusticiaDice que los planes de OpenAI son un paso positivo en la lucha contra la desinformación electoral, pero depende de qué CMO se aplique.
“Por ejemplo, ¿existen filtros exhaustivos y completos a la hora de hacer preguntas sobre el proceso electoral?”, pregunta. «¿Habr elementos de qué escapar?»
ChatGPT y DALL-E de OpenAI son algunas de las herramientas de generación de IA más poderosas hasta la fecha. Pero hay muchas empresas con tecnología igualmente sofisticada que carecen de mecanismos para protegerse contra la desinformación electoral.
Algunas empresas de redes sociales, como YouTube y metaintrodujo la política de etiquetas AI, en virtud de sus capacidades para detectar a los infractores de forma sistémica.
«Otras empresas generadoras de IA adoptarán directrices similares para tener una aplicación práctica de los estándares en todo el sector», afirma. David Westinvestigador principal de Centro de Innovación Tecnológica de la Institución Brooking.
Sin la adopción voluntaria de narraciones políticas en toda la industria, regular la información errónea generada por la IA en la política requiere legislación. fr. Estados Unidos, el Congreso no ha aprobado ninguna ley que regule el papel de esta industria en la política, ante un bipartidismo. Mientras tanto, un tercio de Estados Unidos ha aprobado o presentado proyectos de ley para abordar los deepfakes en las campañas políticas, mientras la legislación federal está en vigor.
El director ejecutivo de OpenAI, Sam AltmanYo digo que, incluso con todas las medidas de seguridad implementadas por su empresa, no son pacíficos.
«Creo que estamos muy preocupados y vamos a hacer todo lo posible para hacer lo mejor posible», dijo en una entrevista con los mercados en un evento de Bloomberg en el Foro Económico Mundial en Davos, Suiza. «Debemos tener en cuenta que ésta es una advertencia muy importante. Una secuencia muy estricta. Un circuito de retroalimentación muy estricto».