Estudio: tuits generados por IA pueden ser más convincentes que los de personas reales, planteando dudas sobre la autenticidad en las redes sociales.

Entretenimiento Tecnologia

Los autores del informe resaltaron lo peligroso que sería si una inteligencia artificial es utilizada para generar desinformación en este caso

Publicado por: Conne, Publicado: 2023-06-30 19:30:46

Un estudio publicado por la AAAS revela que los tuits generados por IA son más convincentes que los de personas. Basado en encuestas, desafía a los usuarios a distinguir entre tuits de IA y seres humanos.

Según un estudio, los tuits generados por modelos de lenguaje de IA, como GPT-3 de OpenAI, resultan más convincentes que los escritos por humanos. Esta conclusión fue reportada por The Verge, destacando la capacidad persuasiva de la inteligencia artificial en la generación de contenido.

Según el informe, las personas no podían distinguir entre los tuits escritos por una inteligencia artificial y los escritos por humanos. Los encuestados no pudieron discernir correctamente si los tuits fueron generados por ChatGPT u otra persona, lo que destaca la capacidad de la IA para imitar el lenguaje humano de manera convincente.

El estudio reveló que a los participantes les resultó más difícil identificar la desinformación cuando estaba escrita por el modelo de lenguaje de IA en comparación con si estaba escrita por una persona. Sin embargo, también tuvieron más éxito en identificar información precisa cuando era generada por GPT-3 en lugar de por un humano. Esto resalta la capacidad de la IA para imitar el lenguaje humano de manera efectiva, tanto en la comunicación precisa como en la difusión de desinformación.

Giovanni Spitale, autor principal del estudio, advierte que estas tecnologías asombrosas podrían convertirse en armas para generar desinformación en cualquier tema elegido. Existe la preocupación de que la capacidad de la IA para imitar el lenguaje humano de manera convincente pueda ser utilizada maliciosamente para difundir información falsa y manipular opiniones. Esto destaca la importancia de abordar los desafíos éticos y de regulación asociados con el desarrollo y uso de estas tecnologías.

El investigador destaca que hay formas de evitar que esta tecnología se utilice para desinformar a las personas. Esto implica tanto la responsabilidad de los desarrolladores en establecer salvaguardias adecuadas como la de las personas en verificar la información que reciben. Según Spitale, la inteligencia artificial no es inherentemente buena o mala, sino simplemente un amplificador de la intención humana. Es crucial comprender y gestionar adecuadamente su uso para evitar abusos y promover su beneficio en la sociedad.