
En este artículo publicado en LinkedIn en febrero de 2022, reflexiono sobre la drástica evolución de la Inteligencia Artificial desde 2018 hasta ese momento. En aquel entonces, la IA se centraba en el Machine Learning, una tecnología potente pero principalmente accesible para grandes corporaciones como Google o Amazon, y alejada del usuario común. Las aplicaciones más avanzadas, como las redes neuronales profundas, estaban en sus inicios y no existía nada parecido a la IA Generativa actual.
Un concepto clave que ya se debatía era el Test de Turing. En 2018, argumentaba que una IA nunca podría superarlo debido a una contradicción fundamental: para ser útil, se esperaba que una IA fuera perfecta y no cometiera errores, pero una entidad sin fallos sería fácilmente identificada como una máquina, no como un humano. Por lo tanto, una IA «inteligente» en términos humanos parecía imposible.
Sin embargo, la irrupción de modelos como ChatGPT y Gemini cambió por completo mi perspectiva. Estas nuevas tecnologías se acercan a superar el Test de Turing precisamente porque cometen errores. Sus «alucinaciones», interpretaciones incorrectas y falsedades son fallos que, paradójicamente, las hacen más parecidas a los humanos.
Esto revela una nueva paradoja: las empresas tecnológicas compiten por perfeccionar sus modelos y eliminar los errores, un objetivo que, de lograrse, haría que sus IA no pasaran el Test de Turing al carecer de la falibilidad humana.

