Los creadores de ChatGPT dicen que la inteligencia artificial podría superar a la humanidad en los próximos 10 años
INFLUENCER GTO. Los creadores de ChatGPT dicen que la inteligencia artificial podría superar a la humanidad en la mayoría de los dominios en los próximos 10 años. Esto a medida que la «superinteligencia» se vuelve más poderosa que cualquier tecnología que el mundo haya visto.
Los cofundadores de OpenAI, incluido el CEO Sam Altman, dijeron en una publicación de blog que era concebible que la inteligencia artificial pudiera superar el «nivel de habilidad experto» de los humanos en la mayoría de las áreas. También dijeron que podría «llevar a cabo tanta actividad productiva como una de las corporaciones más grandes de la actualidad».

La superinteligencia será más poderosa que otras tecnologías con las que la humanidad ha tenido que lidiar en el pasado», dijeron los ejecutivos de OpenAI. «Podemos tener un futuro dramáticamente más próspero, pero tenemos que gestionar el riesgo para llegar allí».
Las preocupaciones en torno a la inteligencia artificial se hacen cada vez mayores
Desde el lanzamiento de ChatGPT, los líderes de la industria han emitido advertencias cada vez más serias sobre el potencial de una inteligencia artificial poderosa para afectar a la sociedad al desplazar puestos de trabajo y ayudar a alimentar una ola de desinformación y actividad delictiva.
En particular, las preocupaciones han aumentado a medida que el lanzamiento de herramientas de inteligencia artificial generativa como ChatGPT han impulsado una carrera armamentista que ha puesto a empresas como Microsoft y Google en competencia directa entre sí.

Las preocupaciones han llevado a que se regule la inteligencia artificial. Los líderes de OpenAI dijeron en la publicación del blog que «dada la posibilidad de un riesgo existencial», era necesario un enfoque proactivo para gestionar los daños potenciales de la tecnología.
“La energía nuclear es un ejemplo histórico de uso común de una tecnología con esta propiedad; la biología sintética es otro ejemplo”, dijeron. «También debemos mitigar los riesgos de la tecnología de inteligencia artificial actual, pero la superinteligencia requerirá un tratamiento y una coordinación especiales».
La semana pasada, Altman hizo su primera aparición ante el Congreso de Estados Unidos. En ella, abordó las preocupaciones de los legisladores sobre la falta de reglas para regir el desarrollo de la inteligencia artificial.

En la publicación, Altman y sus colegas sugirieron que eventualmente se necesitaría una organización como la Agencia Internacional de Energía Atómica para supervisar el avance de la inteligencia artificial «por encima de cierta capacidad», a través de medidas como auditorías y pruebas de cumplimiento de seguridad.
OpenAI no respondió de inmediato a la solicitud de comentarios de Insider realizada fuera del horario laboral normal.
TAL VEZ TE INTERESE :