El MercurioLa IA cambió la forma de buscar y las personas confían en ella a pesar de sus fallas
Los internautas ya no usan palabras clave para indagar en sitios de la web; quieren respuestas rápidas y completas a preguntas complejas.
Esto modifica desde la publicidad digital hasta la forma de trabajar:
Las personas ya no hacen búsquedas a partir de palabras clave, como solía hacerse en las últimas tres décadas. Ahora hacen preguntas a la inteligencia artificial (IA) para la que esperan una respuesta completa.
“Antes había un ejercicio de metacognición donde el usuario debía entender lo que estaba buscando y hacer consultas con precisión usando palabras clave. Si eras hábil en eso lograbas una lista razonablemente buena de sitios”, recuerda Claudio Álvarez, académico de la Facultad de Ingeniería y Ciencias Aplicadas de la U. de los Andes.
Si antes Google concentraba la mayoría de las peticiones de información en la web, ahora los usuarios también usan ChatGPT, Gemini o Perplexity (herramienta para hacer consultas que se centra en la precisión) para encontrar fácilmente lo que buscan.
“En una primera etapa de uso de ChatGPT o Gemini, los usuarios replicaban el comportamiento de un buscador, es decir, consultas breves, orientadas a obtener enlaces o respuestas y explicaciones puntuales. Hoy la interacción ha evolucionado hacia solicitudes más elaboradas y analíticas, por ejemplo: ‘compara la empresa X con la Y según lo que publican en sus sitios'”, dice Rodrigo Sandoval, VP de Tecnología & Innovación GUX-Proyectum y académico de la U. Católica.
En este nuevo paradigma, agrega Sandoval, los modelos de IA sintetizan, contrastan y estructuran la información en una respuesta integrada.
Verificación
Este cambio ha traído varias consecuencias. La primera es que, al tener una respuesta ya redactada, los usuarios dejan de visitar los sitios que generan la información original.
Wikipedia ya lo sufrió en carne propia: según la fundación Wikimedia, las visitas a su sitio bajaron un 8% durante 2025. Lo paradójico es que el sitio es muy visitado por sistemas de IA que recaban información para alimentar las bases de conocimiento de chatbots.
Google, por lejos el buscador más utilizado en la web, se ha puesto a tono con los tiempos y agregó dos nuevas herramientas de IA a su motor de búsquedas: los “AI Overviews” (resúmenes de IA) que aparecen cuando la consulta lo amerita y el “Modo IA”, una pestaña que permite a los usuarios usar directamente la IA para generar respuesta a lo que buscan.
El problema es que los usuarios se quedan con esas respuestas y no profundizan en la información. Según un estudio de Pew Research, solo el 8% de los usuarios hace clic en un enlace de las búsquedas si es que previamente se les entrega una respuesta generada por IA. Lo peor es que, según ese mismo estudio, solo el 1% accede a las fuentes citadas en el resumen para constatar que la información sea realmente verídica.
Y ahí radica uno de los graves problemas de esta tendencia. “Si la gente confía un 100% del tiempo en una tecnología que el 99% del tiempo te entrega un resultado correcto, hay un problema con ese 1% en que se equivoca. La pregunta es ¿qué daño genera ese 1%? Esta semana salió un estudio de que una versión de ChatGPT dedicada a la salud fallaba en casos graves y eso podría causar muertes (ver recuadro). Pero también hay ejemplos de abogados que han presentado información sobre juicios inexistentes”, dice Ricardo Baeza-Yates, académico de la U. de Chile, Chief Scientific Officer en Theodora AI y Premio Nacional de Ciencias Aplicadas 2024.
“La persona debe verificar la información si la va a usar para cosas profesionales y para hacerlo debe ejecutar las mismas búsquedas que quiso evitar usando el chatbot”, explica Baeza-Yates.
El problema es que en la mayoría de los casos, para saber si la respuesta es buena uno tiene que ser un conocedor de la temática. “Si yo pregunto por mí, por Ricardo Baeza, quizás solo yo sepa rápidamente que lo que dice es 100% verdad. Yo hice el ejercicio y salían muchos errores: lugares en los que no he trabajado, títulos que no tengo. Hasta fue un adivino: me entregó el Premio Nacional en 2018, pero me lo gané recién en 2024”, dice.
También es un problema para publicistas y para las marcas que por años hicieron esfuerzos para que sus sitios salieran primero en las búsquedas. “De pronto, el tablero cambió: hoy muchas personas ya no buscan, preguntan. No quieren una lista de enlaces; quieren una respuesta lista, contextual, directa”, dice Ariel Jeria, CEO de la agencia digital Rompecabeza.
“La pregunta ya no es ‘¿cómo traigo visitas a mi sitio?' Es ‘¿cómo me convierto en la respuesta recomendada?'”, y ahí el principal desafío para personas, empresas y marcas, dice Jeria, “no es solo posicionar un sitio, sino posicionar una verdad sobre quién eres. La IA construye sus respuestas con lo que encuentra repetido, consistente y confiable en distintos lugares”, aclara.
Otro problema que visualiza Baeza-Yates es que la web se puede ir llenando de contenido generado por la IA, entre ello contenido falso. “Si hay mucho contenido basura que no es generado por humanos, el sistema no sirve. De ahí que sea importante que en la web comience a distinguirse el contenido generado por IA del generado por humanos. Eso no solo le sirve a las personas, sino a la misma IA, porque puede descartar información que no le interesa”.
Tanto Baeza como Álvarez coinciden en que la IA además es complaciente: por un lado entrega una respuesta a pesar de no tener mucha información sobre un tema, ya que los sistemas no tienden a decir “no sé”.
“Por eso es importante siempre hacer un ejercicio de validación crítica de la información y estar plenamente consciente de la responsabilidad del uso de la IA”, dice Álvarez.
Confianza peligrosa
ChatGPT Health, herramienta creada por OpenAI, no aconseja bien en casos en que los usuarios deberían acudir inmediatamente a una urgencia, según un estudio publicado en Nature Medicine.
Los investigadores crearon 60 casos realistas de pacientes con distintas enfermedades. Paralelamente a la IA, tres médicos revisaron cada escenario y evaluaron qué hacer según las guías clínicas.
En el 51,6% de los casos en que alguien necesitó ir al hospital de inmediato, la plataforma dijo que se quedara en casa o reservara una cita médica de rutina. Un resultado que los investigadores describieron como “increíblemente peligroso”.
Plataformas como Perplexity, en la foto, se han especializado en entregar información más confiable, dando a conocer la fuente desde la cual obtuvieron la información. Telefónica
Alexis Ibarra O.
Esto modifica desde la publicidad digital hasta la forma de trabajar:
Las personas ya no hacen búsquedas a partir de palabras clave, como solía hacerse en las últimas tres décadas. Ahora hacen preguntas a la inteligencia artificial (IA) para la que esperan una respuesta completa.
“Antes había un ejercicio de metacognición donde el usuario debía entender lo que estaba buscando y hacer consultas con precisión usando palabras clave. Si eras hábil en eso lograbas una lista razonablemente buena de sitios”, recuerda Claudio Álvarez, académico de la Facultad de Ingeniería y Ciencias Aplicadas de la U. de los Andes.
Si antes Google concentraba la mayoría de las peticiones de información en la web, ahora los usuarios también usan ChatGPT, Gemini o Perplexity (herramienta para hacer consultas que se centra en la precisión) para encontrar fácilmente lo que buscan.
“En una primera etapa de uso de ChatGPT o Gemini, los usuarios replicaban el comportamiento de un buscador, es decir, consultas breves, orientadas a obtener enlaces o respuestas y explicaciones puntuales. Hoy la interacción ha evolucionado hacia solicitudes más elaboradas y analíticas, por ejemplo: ‘compara la empresa X con la Y según lo que publican en sus sitios'”, dice Rodrigo Sandoval, VP de Tecnología & Innovación GUX-Proyectum y académico de la U. Católica.
En este nuevo paradigma, agrega Sandoval, los modelos de IA sintetizan, contrastan y estructuran la información en una respuesta integrada.
Verificación
Este cambio ha traído varias consecuencias. La primera es que, al tener una respuesta ya redactada, los usuarios dejan de visitar los sitios que generan la información original.
Wikipedia ya lo sufrió en carne propia: según la fundación Wikimedia, las visitas a su sitio bajaron un 8% durante 2025. Lo paradójico es que el sitio es muy visitado por sistemas de IA que recaban información para alimentar las bases de conocimiento de chatbots.
Google, por lejos el buscador más utilizado en la web, se ha puesto a tono con los tiempos y agregó dos nuevas herramientas de IA a su motor de búsquedas: los “AI Overviews” (resúmenes de IA) que aparecen cuando la consulta lo amerita y el “Modo IA”, una pestaña que permite a los usuarios usar directamente la IA para generar respuesta a lo que buscan.
El problema es que los usuarios se quedan con esas respuestas y no profundizan en la información. Según un estudio de Pew Research, solo el 8% de los usuarios hace clic en un enlace de las búsquedas si es que previamente se les entrega una respuesta generada por IA. Lo peor es que, según ese mismo estudio, solo el 1% accede a las fuentes citadas en el resumen para constatar que la información sea realmente verídica.
Y ahí radica uno de los graves problemas de esta tendencia. “Si la gente confía un 100% del tiempo en una tecnología que el 99% del tiempo te entrega un resultado correcto, hay un problema con ese 1% en que se equivoca. La pregunta es ¿qué daño genera ese 1%? Esta semana salió un estudio de que una versión de ChatGPT dedicada a la salud fallaba en casos graves y eso podría causar muertes (ver recuadro). Pero también hay ejemplos de abogados que han presentado información sobre juicios inexistentes”, dice Ricardo Baeza-Yates, académico de la U. de Chile, Chief Scientific Officer en Theodora AI y Premio Nacional de Ciencias Aplicadas 2024.
“La persona debe verificar la información si la va a usar para cosas profesionales y para hacerlo debe ejecutar las mismas búsquedas que quiso evitar usando el chatbot”, explica Baeza-Yates.
El problema es que en la mayoría de los casos, para saber si la respuesta es buena uno tiene que ser un conocedor de la temática. “Si yo pregunto por mí, por Ricardo Baeza, quizás solo yo sepa rápidamente que lo que dice es 100% verdad. Yo hice el ejercicio y salían muchos errores: lugares en los que no he trabajado, títulos que no tengo. Hasta fue un adivino: me entregó el Premio Nacional en 2018, pero me lo gané recién en 2024”, dice.
También es un problema para publicistas y para las marcas que por años hicieron esfuerzos para que sus sitios salieran primero en las búsquedas. “De pronto, el tablero cambió: hoy muchas personas ya no buscan, preguntan. No quieren una lista de enlaces; quieren una respuesta lista, contextual, directa”, dice Ariel Jeria, CEO de la agencia digital Rompecabeza.
“La pregunta ya no es ‘¿cómo traigo visitas a mi sitio?' Es ‘¿cómo me convierto en la respuesta recomendada?'”, y ahí el principal desafío para personas, empresas y marcas, dice Jeria, “no es solo posicionar un sitio, sino posicionar una verdad sobre quién eres. La IA construye sus respuestas con lo que encuentra repetido, consistente y confiable en distintos lugares”, aclara.
Otro problema que visualiza Baeza-Yates es que la web se puede ir llenando de contenido generado por la IA, entre ello contenido falso. “Si hay mucho contenido basura que no es generado por humanos, el sistema no sirve. De ahí que sea importante que en la web comience a distinguirse el contenido generado por IA del generado por humanos. Eso no solo le sirve a las personas, sino a la misma IA, porque puede descartar información que no le interesa”.
Tanto Baeza como Álvarez coinciden en que la IA además es complaciente: por un lado entrega una respuesta a pesar de no tener mucha información sobre un tema, ya que los sistemas no tienden a decir “no sé”.
“Por eso es importante siempre hacer un ejercicio de validación crítica de la información y estar plenamente consciente de la responsabilidad del uso de la IA”, dice Álvarez.
Confianza peligrosa
ChatGPT Health, herramienta creada por OpenAI, no aconseja bien en casos en que los usuarios deberían acudir inmediatamente a una urgencia, según un estudio publicado en Nature Medicine.
Los investigadores crearon 60 casos realistas de pacientes con distintas enfermedades. Paralelamente a la IA, tres médicos revisaron cada escenario y evaluaron qué hacer según las guías clínicas.
En el 51,6% de los casos en que alguien necesitó ir al hospital de inmediato, la plataforma dijo que se quedara en casa o reservara una cita médica de rutina. Un resultado que los investigadores describieron como “increíblemente peligroso”.
Plataformas como Perplexity, en la foto, se han especializado en entregar información más confiable, dando a conocer la fuente desde la cual obtuvieron la información. Telefónica
Alexis Ibarra O.
Autor(es):
ALEXIS IBARRA O.
El Mercurio Página:
10

Recorte

Contexto


Página:
10

