ChatGPT no es Google. Y menos mal.
Artículo original de José Antonio Ferreira Dapía, sobre las diferencias entre Google y ChatGPT, publicado el 24 de diciembre de 2025.
ChatGPT no es un buscador ni Google: es otra interfaz con el conocimiento, que sintetiza información y exige pensamiento crítico. El verdadero riesgo no es que convenza, sino que los usuarios dejen de verificar. La IA no mata el conocimiento, solo la pereza rentable.
¡Ey Tecnófilos! ¿Qué está pasando por ahí?
Llevo días viendo circular el artículo de La Voz de Galicia con ese titular tan rotundo: “Por qué ChatGPT nunca será Google: convincente no significa cierto”. Y, mira, el titular no es falso. Pero tampoco es verdad. Es cómodo. Es tranquilizador. Es el típico texto que se escribe cuando se quiere entender algo nuevo usando categorías viejas.
Vamos a intentar aprender algo.
El error de fondo del artículo no es técnico. Es mental. Confunde herramienta con función, y función con poder. Google no es Google porque busque. Google es Google porque ordena el mundo enlazado y lo monetiza como nadie. ChatGPT no pretende —ni necesita— hacer eso. Y ahí está la trampa intelectual: juzgar una turbina como si fuera un martillo.
ChatGPT no es un buscador, eso ya lo sabemos.
ChatGPT no es un buscador. Correcto. Tampoco lo es un analista humano cuando abre veinte pestañas, se lee tres titulares y “ya lo tiene claro”. Pero ambos responden preguntas. Con una diferencia clave: uno te apunta a fuentes; el otro te fabrica una síntesis. Y eso, para muchos, es incómodo. Porque obliga a pensar. Y pensar cansa.
El mantra de “convincente no significa cierto” suena profundo, pero es una obviedad vestida de advertencia solemne. Como decir que un libro bien escrito puede contener errores. Gracias por el aviso. El problema no es que ChatGPT pueda equivocarse. El problema es que el lector medio lleva años delegando su criterio. Antes en Google, ahora en cualquier cosa que suene segura. Mediocracia pura: la de quien quiere respuestas, pero no quiere hacerse responsable de lo que hace con ellas.
Google te da enlaces. ChatGPT te da contexto. Google te ofrece resultados, muchos de ellos empujados por intereses comerciales, SEO y un ecosistema cada vez más contaminado. ChatGPT te construye una respuesta coherente, aunque imperfecta. ¿Es peligrosa esa coherencia? Solo si has renunciado a tu responsabilidad intelectual. Y eso no es culpa de la tecnología.
Aquí entra el viejo reflejo europeo: si hay riesgo, regulamos; si hay incertidumbre, moralizamos. Educamos menos y legislamos más. Mientras en Estados Unidos la pregunta natural suele ser “¿cómo lo exploto?“, aquí la pregunta es “¿cómo lo limito?“. Luego nos sorprendemos cuando no lideramos industria, ni producto, ni músculo tecnológico. Mucha “ética”, poca fábrica.
El artículo insiste en que la IA generativa “no está diseñada para decir ‘no lo sé’“. No exactamente. Está diseñada para responder según probabilidad, con un estilo que suena seguro si no se le enseña a ser humilde o si no se le obliga a citar. Y esto último es clave: el problema no es la herramienta, es el modo de uso. Igual que un coche no es culpable de un conductor borracho.
¿Puede ChatGPT “alucinar”? Sí. ¿Puede un periodista escribir una barbaridad con absoluta seguridad? También. ¿Puede un tertuliano vivir de eso veinte años? Por supuesto. La diferencia es que a unos les ponemos el sello de “profesional” y a la máquina le exigimos infalibilidad. Y no es serio. La infalibilidad no existe; lo que existe es el contraste, la trazabilidad y el hábito de dudar.
Y aquí aparece el elefante real en la habitación: el miedo económico. Porque esto no va de verdad o mentira. Va de desintermediación. Va de que miles de trabajos basados en repetir, resumir, enlazar o rellenar textos están en revisión. Y eso duele. Duele a quien vivía cómodo en el carril de “copio-pego con estilo”. Duele a quien montó un modelo de negocio sobre ser la puerta entre el usuario y la información.
La IA no mata el conocimiento. Mata la pereza rentable. Y cuando la pereza rentable se siente amenazada, se escribe con mucha épica sobre “el peligro” y “la responsabilidad”. Bien. Responsabilidad, sí. Pero aplicada también al oficio, no solo al usuario.
ChatGPT no será Google. Claro que no. Tampoco internet fue una enciclopedia elegante ni el smartphone fue un teléfono con más botones. Fueron algo distinto: un cambio de comportamiento. Y esto va por el mismo camino. No es “otra web”. Es otra interfaz con el conocimiento. Más conversacional, más rápida, más útil… y más exigente con quien quiera hacerlo bien.
El verdadero riesgo no es que ChatGPT convenza. El verdadero riesgo es que la gente deje de verificar. Pero eso ya pasaba antes; solo que ahora se ve más. Y como todo lo que se ve, molesta. Obliga a poner el foco donde no queremos: en nuestra comodidad intelectual.
Tecnologizarse o morir no es un eslogan simpático. Es una descripción clínica. O aprendemos a usar bien estas herramientas —con criterio, trabajo y espíritu crítico— o nos quedaremos escribiendo artículos defensivos mientras otros construyen producto, industria y ventaja competitiva. Y luego, como siempre, a llorar a Bruselas para que nos “proteja”.
ChatGPT no es Google. Gracias a Dios. Porque si lo fuera, no estaríamos ante un cambio de paradigma, sino ante otra pestaña más del navegador. Y esto va bastante más allá.
¡Se me tecnologizan!
