Un estudio de la Universidad de Long Island plantea inquietudes sobre la eficacia de ChatGPT, el chatbot de inteligencia artificial de OpenAI, en responder preguntas médicas. La investigación involucró 39 consultas relacionadas con medicamentos y comparó las respuestas proporcionadas por ChatGPT con las de farmacéuticos capacitados.

Los resultados mostraron que ChatGPT brindó respuestas precisas solo para alrededor de una cuarta parte de las preguntas. Para las demás, las respuestas eran incompletas, inexactas o no abordaban adecuadamente las preguntas. El estudio se presentó en la reunión anual de la Sociedad Estadounidense de Farmacéuticos de Sistemas de Salud.

Además, cuando se solicitó a ChatGPT referencias científicas para respaldar sus respuestas, solo pudo proporcionar ocho de las preguntas formuladas, y en todos esos casos, generó referencias ficticias. El chatbot a menudo fabricaba citas que parecían legítimas a primera vista, pero que no tenían respaldo real.

En un ejemplo específico, ChatGPT fue consultado sobre la interacción entre el medicamento antiviral Covid-19 Paxlovid y el medicamento para la presión arterial verapamilo. La respuesta del chatbot indicó que no habría efectos adversos al tomar ambos medicamentos, lo cual era incorrecto, ya que esa combinación puede provocar una caída peligrosa de la presión arterial.

Los investigadores expresaron preocupaciones sobre la posibilidad de que personas, incluidos estudiantes y consumidores comunes, utilicen ChatGPT para obtener información sobre salud y medicamentos, especialmente dada la popularidad del chatbot.

Un portavoz de OpenAI destacó que la política de uso de ChatGPT advierte a los usuarios que no confíen en las respuestas como sustituto del asesoramiento o tratamiento médico profesional. Aunque ChatGPT se lanzó como una herramienta de inteligencia artificial, este estudio destaca la necesidad de precaución al utilizar este tipo de tecnologías para preguntas médicas críticas.