Esta es la función más utilizada de ChatGPT

Según el CEO de OpenAI, Sam Altman buscará proponer una organización de países para regular la inteligencia artificial. Conoce los detalles acá
miércoles 17 de mayo de 2023
SSKZR5EUGVG6DMKFVI7AHRGHB4
SSKZR5EUGVG6DMKFVI7AHRGHB4

ChatGPT se ha convertido en una de las inteligencias artificiales más populares del mundo y OpenAI en una compañía líder en el desarrollo de esta tecnología gracias a la variedad de usos que tiene este modelo generativo.

Sin embargo el CEO de la empresa, Sam Altman, reveló durante una entrevista con su colega Patrick Collison en YouTube que pese a la cantidad de funciones habilitadas en este software, como la generación de textos, ayuda en la escritura de código de programación, entre otras, la aplicación más común entre los usuarios es la de resumir textos de forma automática “para mantenerse al día con mensajes de correo electrónico y de Slack (la plataforma de organización y productividad)”.

Aún cuando ChatGPT utilice la comunicación por medio de mensajes de textos, Altman aseguró que ya se está desarrollando una nueva característica que permitiría iniciar conversaciones de voz con “agentes de inteligencia artificial”, programas que cumplen con tareas de manera autónoma.

A diferencia de la función regular de ChatGPT, que funciona en base a preguntas o indicaciones hechas por un usuario, estos programas no requieren de comentarios constantes o supervisión para el logro de los objetivos que se le propongan.

Durante la conversación, Altman también consideró que la inteligencia artificial podría ser más participativa en la toma de decisiones importantes con la idea de mejorar la vida de las personas. Según el CEO de OpenAI, se podrían utilizar estos modelos para identificar opciones de inversión en empresas e incluso apoyar en la asignación de fondos a investigaciones para la lucha contra el cáncer.

Regulación de la inteligencia artificial

Altman no ha ocultado su interés y disposición para que se regule el avance de la inteligencia artificial y sus usos de modo que se pueda brindar seguridad a las personas.

Si bien algunos países como Italia y Canadá, e incluso organizaciones como el Parlamento Europeo están tomando acciones al respecto, el representante de OpenAI cree que se podría hacer más si se tiene a una organización que englobe a todos los países del mundo.

“Estoy pensando en plantear algo así como una OEA, pero para la inteligencia artificial”, afirmó. También indicó que la primera acción de esta organización ficticia sería exigir que todos los sistemas que se creen a futuro deben superar una serie de requisitos, someterse a auditorías y evaluaciones de seguridad antes de ser lanzadas al mercado.

Si bien el CEO de OpenAI aseguró en sus redes sociales y en entrevistas que considera que la inteligencia artificial debe estar en contacto con los humanos para mejorar constantemente sus pequeños errores, la idea de no hacerla disponible por motivos de seguridad no es contraria a esta premisa.

Una inteligencia artificial puede tener errores en su funcionamiento como ofrecer datos incorrectos y esto puede solucionarse una vez que se ha detectado el fallo, pero un fallo de seguridad puede comprometer la información de un usuario y eso puede prevenirse si se identifica antes de que un modelo esté disponible para el público.

Para Altman, es bueno que más personas se animen a hablar sobre el problema, aunque considera que esto es insuficiente si no se pasa a la acción. “Hay gente preocupada y hace trabajo técnico al respecto. Necesitamos más gente así”, indicó.

Tetaz desafió a Milei a debatir públicamente propuestas contra la inflación