top of page

“No debería estar diciendo esto”: la biblioteca como espacio de confianza para hablar de inteligencia artificial sin miedo

Descubre cómo hablar de inteligencia artificial sin miedo en la biblioteca, un espacio de confianza para estudiantes. Hablar de inteligencia artificial sin miedo es posible aquí.

Hay frases que, por sí solas, explican un cambio cultural.

“No debería estar diciendo esto”.

Con esa frase comienza una de las confesiones más reveladoras recogidas por Zipf et al. (2026), en el estudio “I shouldn't be saying this: Library-based student confessions about AI, cheating, and academic integrity”, publicado en The Journal of Academic Librarianship.


La estudiante que pronuncia esas palabras no está confesando plagio. Tampoco describe una conducta disciplinaria evidente. Lo que expresa, antes que cualquier otra cosa, es una emoción: cautela. La sensación de estar entrando en una conversación que, aunque forma parte de su vida académica cotidiana, todavía parece pertenecer al terreno de lo que se dice en voz baja.


Ese detalle convierte la frase en algo más importante que una anécdota. La convierte en una pregunta institucional.


¿Por qué un estudiante universitario siente que debe bajar la voz antes de hablar sobre inteligencia artificial? Y, más importante aún, ¿qué ocurre cuando encuentra un espacio donde no necesita hacerlo?

La respuesta no aparece en un laboratorio tecnológico, ni en una oficina disciplinaria, ni en un comité académico. La respuesta aparece en un lugar que durante décadas ha acompañado la vida intelectual universitaria desde la discreción, la escucha y el acompañamiento: la Biblioteca.


Lo que demuestra este estudio, y lo que muchas bibliotecas universitarias ya están observando en la práctica diaria, es que cuando la conversación sobre inteligencia artificial deja de estar mediada por el miedo a la sanción y empieza a estar acompañada por formación rigurosa, ocurre algo extraordinario: los estudiantes hablan con honestidad, preguntan con libertad y aprenden a usar la IA con criterio. Ese es, probablemente, uno de los cambios pedagógicos más importantes que está viviendo hoy la relación entre biblioteca e inteligencia artificial.


hablar de inteligencia artificial sin miedo: cuando la conversación deja de ser una confesión


En los servicios de revisión de trabajos de grado, en las asesorías para construcción de estrategias de búsquedas, en las sesiones de formación sobre uso de la información académica, citación y evaluación de fuentes, empieza a observarse una escena que hace apenas dos años era poco común:


Los estudiantes hablan de inteligencia artificial con naturalidad.


Hablan de ChatGPT.

Hablan de Copilot.

Hablan de Claude.

Hablan de prompts que les ayudaron a organizar ideas.

Hablan de respuestas que tuvieron que corregir.

Hablan de referencias que resultaron inexistentes.

Hablan de textos que parecían correctos, pero que no resistieron una revisión académica rigurosa.

Hablan, incluso, de conversaciones difíciles con docentes que todavía interpretan cualquier uso de IA como una amenaza.


Y lo más llamativo no es que hablen. Lo más importante es cómo hablan.


No hablan con miedo.

No hablan buscando aprobación.

No hablan intentando ocultar prácticas.

Hablan con la libertad de quien entiende que no está entrando en un espacio de vigilancia, sino en un espacio de aprendizaje.


Eso cambia por completo la naturaleza de la conversación. La pregunta deja de ser: “¿Puedo usar inteligencia artificial?” Y se transforma en preguntas mucho más maduras:


“¿Cómo puedo usarla sin perder mi voz académica?”

“¿Cómo verifico si esta respuesta es confiable?”

“¿Cómo detecto una referencia inventada?”

“¿Cómo sé cuándo la IA me está ayudando y cuándo está pensando por mí?”

“¿Cómo puedo defender metodológicamente el uso que hice de esta herramienta?”


En ese momento, la conversación deja de girar alrededor del permiso y empieza a girar alrededor del criterio. Y ahí es donde la relación entre biblioteca e inteligencia artificial adquiere verdadero sentido pedagógico. No porque la biblioteca enseñe herramientas, es porque ayuda a que los estudiantes desarrollen juicio académico sobre el uso de esas herramientas.


Lo que demuestra el estudio


Los investigadores realizaron treinta (30) entrevistas con estudiantes universitarios en una biblioteca de la Pennsylvania State University durante la primavera de 2025. El propósito del estudio no era medir cuántos estudiantes usaban inteligencia artificial. Tampoco buscaba detectar fraude académico. La pregunta era mucho más interesante:

¿Qué están dispuestos a decir los estudiantes sobre inteligencia artificial cuando se sienten en un espacio de confianza?

La elección de la biblioteca fue deliberada. Los autores explican que la biblioteca fue seleccionada tanto por su ubicación central dentro del campus, como por su papel histórico como espacio de apoyo académico, integridad intelectual y acompañamiento educativo. Ese detalle es esencial.


Los estudiantes no fueron entrevistados en un entorno de evaluación. Fueron entrevistados en un entorno donde podían hablar. Y cuando se sienten escuchados, hablan.


Hablan con matices.

Hablan con dudas.

Hablan con contradicciones.

Hablan con honestidad.


Y eso permitió a los investigadores identificar cuatro dimensiones que organizan la manera en que los estudiantes viven hoy la inteligencia artificial:


  • la relación entre intención y esfuerzo;

  • la experiencia de culpa y justicia;

  • la incertidumbre frente a normas poco claras;

  • el desplazamiento de algunas formas de apoyo humano hacia herramientas de IA.


Estas cuatro dimensiones describen una transición cultural. Los estudiantes no están simplemente aprendiendo a usar una tecnología. Están intentando integrar esa tecnología en su identidad académica.


Lo que los estudiantes realmente dicen sobre inteligencia artificial


El valor más poderoso del estudio está en las voces de los estudiantes.

Una estudiante comienza diciendo:

“I shouldn't be saying this…” («No debería decir esto…»)

Y después reconoce que utiliza inteligencia artificial para hacer brainstorming y organizar ideas en sus ensayos. La frase no revela una conducta grave. Revela algo más importante: la existencia de una cultura académica donde hablar de IA todavía produce cautela.


Otro estudiante afirma:

“The tool is going to exist whether they like it or not.” («La herramienta va a existir, les guste o no».)

No es una frase de desafío, es una constatación. La inteligencia artificial ya forma parte del ecosistema académico. La discusión ya no es si existe, la discusión es cómo se incorpora con rigor.


Otro estudiante ofrece una descripción especialmente reveladora:

“Like emailing the teacher, but you don't have to email the teacher.” («Es como enviarle un correo electrónico al profesor, pero sin tener que hacerlo».)

La comparación es profunda, ya que no describe a la IA como una máquina. La describe como una nueva forma de apoyo académico: Disponible, Inmediata, Privada, Sin juicio.


Esa percepción explica por qué muchos estudiantes recurren primero a una herramienta conversacional antes que a un docente, un tutor o un servicio institucional.


Pero el estudio también muestra que esta transición no ocurre sin conflicto. Cuando se les pregunta cómo afectaría una falsa acusación de uso indebido de IA, uno de los estudiantes responde:

“Would ruin my life.” («Me arruinaría la vida».)

Otro dice que se sentiría:

“Insulted.” («Insultado».)

Estas respuestas son importantes porque desmontan un prejuicio frecuente. Los estudiantes no aparecen como sujetos indiferentes a la integridad académica. Aparecen, por el contrario, preocupados por su reputación, su esfuerzo y la legitimidad de su aprendizaje.


La línea entre apoyo y sustitución


Uno de los hallazgos del estudio es que los estudiantes no definen el uso problemático de la inteligencia artificial a partir de la herramienta en sí misma. La definen a partir del proceso de aprendizaje; cuando se les pregunta qué entienden por hacer trampa, no responden


hablando de software.

Hablan de esfuerzo.

Hablan de autenticidad.

Hablan de aprendizaje.


Un estudiante lo resume así:

“You didn't actually take the steps to get the answers yourself.” («En realidad, no hiciste lo necesario para encontrar las respuestas por ti mismo».)

Otro afirma:

“When you don't really try and learn it yourself.” («Cuando realmente no te esfuerzas por aprenderlo por ti mismo».)

Y otro concluye:

“Bypassing… it's not going through the process.” («Saltarse... es no seguir el proceso».)

La idea es consistente. Para ellos, la IA no se convierte automáticamente en trampa.

Se convierte en problema cuando reemplaza el proceso que debería conducir al aprendizaje. Esta distinción es especialmente relevante en cualquier estrategia de formación sobre biblioteca e inteligencia artificial.


Porque la conversación deja de centrarse en prohibiciones generales y empieza a centrarse en preguntas mucho más útiles:


¿La herramienta ayudó a pensar?

¿Ayudó a contrastar?

¿Ayudó a comprender?

¿O simplemente sustituyó una tarea intelectual que debía ser propia?


Cuando un estudiante aprende a formular esas preguntas, está desarrollando pensamiento académico.


Cuando la formación en inteligencia artificial produce estudiantes críticos


En los espacios donde la inteligencia artificial se trabaja desde la formación y no desde la sospecha, empieza a observarse otro fenómeno igualmente importante: Los estudiantes dejan de aceptar las respuestas de la IA como si fueran correctas por defecto.


Empiezan a cuestionarlas.

Empiezan a verificar.

Empiezan a contrastar.

Empiezan a corregir.

Empiezan a pedir evidencia.

Empiezan a detectar errores.

Empiezan a identificar sesgos.

Empiezan a notar cuándo una respuesta es superficial.

Empiezan a reconocer cuándo una referencia ha sido inventada.

Empiezan, en otras palabras, a pensar.


Y cuando un estudiante aprende a pensar críticamente sobre inteligencia artificial, también aprende a argumentar frente a ella. Y, en muchas ocasiones, frente al propio docente.

No desde la confrontación, sino desde el rigor. Aparecen entonces conversaciones como estas:


“Esta referencia no aparece en ninguna base de datos.”
“Esta respuesta contradice la literatura reciente.”
“Este prompt está condicionando el resultado.”
“Esta explicación simplifica demasiado el marco conceptual.”
“Este resultado no es metodológicamente reproducible.”

Ese momento es pedagógicamente extraordinario, porque la formación no produjo obediencia: produjo criterio. Y ese criterio transforma la experiencia universitaria.


La biblioteca como espacio de confianza

Lo más importante que deja este estudio no es una estadística.

No es una advertencia.

No es una política.

Es una evidencia institucional.


Cuando los estudiantes encuentran un espacio donde pueden hablar sin miedo, la conversación sobre inteligencia artificial deja de ser clandestina y se convierte en una oportunidad educativa. Eso es lo que los autores identifican cuando proponen que la biblioteca actúa como un entorno neutral para explorar usos responsables de la IA, aclarar expectativas institucionales y apoyar el desarrollo ético de los estudiantes. Y esa idea coincide con una realidad que muchas bibliotecas universitarias ya están viviendo.


Cuando desaparece el miedo a la sanción, aparece la honestidad. Cuando aparece la honestidad, aparecen las preguntas reales. Y cuando aparecen las preguntas reales, aparece el aprendizaje profundo.


Por eso, el debate actual no debería centrarse únicamente en cómo detectar quién usa inteligencia artificial. La pregunta más importante es otra.


¿Está la universidad ofreciendo espacios donde los estudiantes puedan hablar de inteligencia artificial con libertad, rigor y responsabilidad?

Si la respuesta es sí, probablemente la biblioteca ya está ocupando ese lugar.

Y, quizá, ese sea uno de los roles más importantes que puede asumir la universidad en esta nueva etapa del aprendizaje académico.


Referencias

Zipf, S. T., Petricini, T., & Borrelli, S. (2026). I shouldn't be saying this: Library-based student confessions about AI, cheating, and academic integrity. The Journal of Academic Librarianship, 52, 103259. https://doi.org/10.1016/j.acalib.2026.103259

Comentarios


Ubicación

Bogotá, Colombia

Teléfono

Conecta
 

  • Threads
  • X
  • LinkedIn
  • Facebook
  • Whatsapp
  • TikTok
  • Instagram

Email

Únete a la comunidad info[rage]

Entérate de las futuras publicaciones

Thanks for submitting!

bottom of page