En 2022, niños, padres y profesores recibieron un curso intensivo de inteligencia artificial gracias a ChatGPT, el popular chatbot.
En un acto reflejo, algunas escuelas, como las públicas de Nueva York, prohibieron esta tecnología para anular la prohibición meses después. Ahora que muchos adultos se han puesto al día con la tecnología, las escuelas han empezado a explorar diferentes formas de utilizar los sistemas de IA para enseñar a los niños importantes lecciones sobre pensamiento crítico.
Sin embargo, los niños no solo encuentran chatbots de IA en las escuelas y en su vida cotidiana. La IA está cada vez más presente en todas partes. Por ejemplo, nos recomienda series en Netflix, ayuda a Alexa a responder a nuestras preguntas, impulsa tus filtros interactivos favoritos de Snapchat y la forma en que desbloqueas tu smartphone.
Aunque algunos estudiantes estarán más interesados en la IA que otros, comprender los fundamentos del funcionamiento de estos sistemas se está convirtiendo en una forma básica de alfabetización, algo que deberían saber todos los que terminan bachillerato, afirma Regina Barzilay, profesora del MIT (Massachusetts Institute of Technology) y directora de IA en la Clínica Jameel del MIT. Esta institución organizó un programa de verano para 51 estudiantes de secundaria interesados en el uso de la IA en la atención sanitaria.
Hay que animar a los niños a sentir curiosidad por los sistemas que desempeñan un papel cada vez más predominante en nuestras vidas, afirma Barzilay. “En el futuro, crearía enormes disparidades si solo las personas que van a la universidad y estudian ciencias de datos e informática entienden cómo funciona”.
Con el arranque del curso escolar, mostramos los seis consejos esenciales de MIT Technology Review para brindar a tu hijo una educación basada en la IA.
1. No lo olvides: la IA no es tu amiga
Los chatbots están diseñados para hacer esto mismo: chatear. El tono amistoso y conversacional que adopta ChatGPT al responder preguntas puede hacer que los alumnos olviden que están interactuando con un sistema de inteligencia artificial, y no con un confidente. Esto haría que la gente sea más propensa a creer lo que dicen estos chatbots, en lugar de tratar sus sugerencias con escepticismo. Helen Crompton, catedrática de la Universidad Old Dominion (Virginia, EE UU) y especializada en Innovación Digital en la Educación, afirma que, aunque los chatbots parecen humanos simpáticos solo imitan el habla humana a partir de datos extraídos de internet.
“Debemos recordar a los niños que no den a sistemas como ChatGPT información personal delicada, pues toda va a parar a una gran base de datos“, asegura Crompton. Una vez que tus datos están en la base, es casi imposible eliminarlos. Podrían utilizarse para que las empresas tecnológicas ganen más dinero sin tu consentimiento, o incluso podrían ser extraídos por piratas informáticos.
2. Los modelos de IA no reemplazan a los motores de búsqueda
Los grandes modelos lingüísticos son tan buenos como los datos con los que han sido entrenado. Es decir, aunque los chatbots son expertos en responder con confianza a preguntas con una redacción que parece plausible, no toda la información que ofrecen es correcta o fiable. Los modelos lingüísticos de IA también son conocidos por presentar datos falsos como hechos. Dependiendo de dónde se hayan recogido esos datos, pueden perpetuar prejuicios y estereotipos potencialmente dañinos. Los alumnos deben tratar las respuestas de los chatbots, como cualquier tipo de información que encuentren en internet, de manera crítica.
“Estas herramientas no son representativas, lo que nos dicen se basa en lo que se les ha enseñado. No todo el mundo está en internet, así que no se verán reflejados”, afirma Victor Lee, profesor asociado de la Stanford Graduate School of Education (California, EE UU) y creador de recursos gratuitos de IA para planes de estudios de secundaria. “Los estudiantes deberíamos pararnos a reflexionar antes de hacer clic, compartir o reenviar y ser más críticos con lo que vemos y nos creemos, porque mucho de ello podría ser falso”.
Aunque puede ser tentador confiar en los chatbots para responder a las consultas, no son un sustituto de Google u otros motores de búsqueda, asegura David Smith, profesor de Educación en Biociencias en la Universidad Sheffield Hallam (Reino Unido). Además, Smith se ha preparado para ayudar a sus estudiantes a navegar por los usos de la IA en su propio aprendizaje. Los estudiantes no deben aceptar todo lo que dicen los grandes modelos lingüísticos como un hecho indiscutible, y añade: “Sea cual sea la respuesta que te dé, tendrás que comprobarla“.
3. Los profesores podrían acusarte de usar una IA cuando no la has hecho
Ahora que la IA generativa ha llegado a las masas, uno de los mayores retos para los profesores es averiguar cuándo los estudiantes han utilizado la IA para realizar sus tareas. Aunque muchas empresas han lanzado productos que prometen detectar si el texto ha sido escrito por un humano o una máquina, el problema es que las herramientas de detección de texto de IA son bastante poco fiables y es fácil engañarlas. Ha habido muchos ejemplos de casos donde los profesores suponen que una redacción ha sido generada por IA cuando, en realidad, no ha sido así.
Un paso importante es familiarizarse con las políticas sobre IA de la escuela de su hijo o con los procesos de divulgación de la IA, si los hay, y recordar a los menores la importancia de respetarlas, recuerda Lee. Si su hijo ha sido acusado injustamente de utilizar IA en una tarea, recuerde mantener la calma, recomienda Crompton. No tenga miedo de cuestionar la decisión y preguntar cómo se tomó, y no dude en señalar el registro que ChatGPT guarda de las conversaciones de un usuario individual si necesita demostrar que su hijo no tomó material directamente.
4. Los sistemas de recomendación están diseñados para engancharte y pueden mostrarte cosas malas
Es esencial comprender y explicar a los niños cómo funcionan los algoritmos de recomendación, afirma Teemu Roos, profesor de Informática de la Universidad de Helsinki (Finlandia). Roos está elaborando un plan de estudios sobre IA para las escuelas finlandesas. Las empresas tecnológicas ganan dinero cuando la gente ve anuncios en sus plataformas. Por ello, han desarrollado potentes algoritmos de IA que recomiendan contenidos, como vídeos en YouTube o TikTok, para captar la atención de las personas para que permanezcan en la plataforma el mayor tiempo posible. Los algoritmos rastrean y miden de cerca qué tipo de clips ven los usuarios para luego recomendar vídeos similares. Por ejemplo, cuantos más vídeos de gatos veas, es más probable que el algoritmo considere que querrás ver más vídeos de gatos en el futuro.
Estos servicios tienden a guiar a los usuarios hacia contenidos nocivos, como la desinformación, añade Roos. Ya que las personas tienden a permanecer en contenidos extraños o impactantes, como información errónea sobre salud e ideologías políticas extremas. Es fácil caer en un bucle, así que conviene no creerse todo lo que se ve en internet. También debería comprobar la información de otras fuentes fiables.
5. Recuerda utilizar la IA de forma segura y responsable
La IA generativa no se limita al texto, hay muchas aplicaciones gratuitas de deepfake y programas web que pueden imponer la cara de alguien en el cuerpo de otra persona en cuestión de segundos. Aunque los estudiantes hayan sido advertidos de los peligros de compartir imágenes íntimas en internet, deberían ser cautelosos a la hora de subir las caras de sus amigos a aplicaciones que puedan tener riesgo, ya que podría tener repercusiones legales. Por ejemplo, los tribunales han declarado culpables a algunos adolescentes por difundir pornografía infantil y enviar material explícito sobre otros adolescentes, o incluso sobre ellos mismos.
“Mantenemos conversaciones con los niños sobre el comportamiento responsable en internet, tanto por su propia seguridad como para que no acosen, publiquen información privada sobre una persona (doxing, en inglés), o falseen la identidad de otra persona (catfish) a nadie, pero debemos recordarles sus propias responsabilidades“, afirma Lee. “Igual que se extienden los rumores desagradables, puedes imaginarte lo que ocurre cuando alguien empieza a hacer circular una imagen falsa“.
Lee señala que ofrecer a los niños y adolescentes ejemplos concretos de los riesgos legales o para la intimidad derivados del uso de internet ayuda más que hablarles de normas o directrices generales. Por ejemplo, explicarles cómo las apps de edición facial con IA pueden retener las fotos que suben, o señalarles noticias sobre plataformas que han sido pirateadas, puede causar una mayor impresión que las advertencias generales sobre “ten cuidado con tu privacidad”.
6. No te pierdas lo que se le da bien a la IA
No todo es pesimismo. Aunque muchos de los primeros debates sobre la IA en las aulas giraron en torno a su potencial como ayuda para hacer trampas, cuando se utiliza de forma inteligente puede ser una herramienta muy útil. Los alumnos que tengan dificultades para entender un tema complicado pueden pedirle a ChatGPT que se lo explique paso a paso, en forma de rap o se haga pasar por un profesor experto en biología para poner a prueba sus conocimientos. Además, se le da bien elaborar rápidamente tablas detalladas para comparar los pros y los contras sobre universidades, por ejemplo, lo que llevaría horas de investigación y compilación.
Pedir glosarios de palabras difíciles a un chatbot, practicar preguntas de historia antes de un examen, o ayudar a un estudiante a evaluar sus respuestas son otros usos beneficiosos, señala Crompton. “Siempre y cuando se recuerde el sesgo, la tendencia a las alucinaciones y las inexactitudes, y la importancia de la alfabetización digital; si un estudiante lo utiliza de la manera correcta, es estupendo. Todos lo vamos descubriendo sobre la marcha”.
En 2022, niños, padres y profesores recibieron un curso intensivo de inteligencia artificial gracias a ChatGPT, el popular chatbot.
En un acto reflejo, algunas escuelas, como las públicas de Nueva York, prohibieron esta tecnología para anular la prohibición meses después. Ahora que muchos adultos se han puesto al día con la tecnología, las escuelas han empezado a explorar diferentes formas de utilizar los sistemas de IA para enseñar a los niños importantes lecciones sobre pensamiento crítico.
Sin embargo, los niños no solo encuentran chatbots de IA en las escuelas y en su vida cotidiana. La IA está cada vez más presente en todas partes. Por ejemplo, nos recomienda series en Netflix, ayuda a Alexa a responder a nuestras preguntas, impulsa tus filtros interactivos favoritos de Snapchat y la forma en que desbloqueas tu smartphone.
Aunque algunos estudiantes estarán más interesados en la IA que otros, comprender los fundamentos del funcionamiento de estos sistemas se está convirtiendo en una forma básica de alfabetización, algo que deberían saber todos los que terminan bachillerato, afirma Regina Barzilay, profesora del MIT (Massachusetts Institute of Technology) y directora de IA en la Clínica Jameel del MIT. Esta institución organizó un programa de verano para 51 estudiantes de secundaria interesados en el uso de la IA en la atención sanitaria.
Hay que animar a los niños a sentir curiosidad por los sistemas que desempeñan un papel cada vez más predominante en nuestras vidas, afirma Barzilay. “En el futuro, crearía enormes disparidades si solo las personas que van a la universidad y estudian ciencias de datos e informática entienden cómo funciona”.
Con el arranque del curso escolar, mostramos los seis consejos esenciales de MIT Technology Review para brindar a tu hijo una educación basada en la IA.
1. No lo olvides: la IA no es tu amiga
Los chatbots están diseñados para hacer esto mismo: chatear. El tono amistoso y conversacional que adopta ChatGPT al responder preguntas puede hacer que los alumnos olviden que están interactuando con un sistema de inteligencia artificial, y no con un confidente. Esto haría que la gente sea más propensa a creer lo que dicen estos chatbots, en lugar de tratar sus sugerencias con escepticismo. Helen Crompton, catedrática de la Universidad Old Dominion (Virginia, EE UU) y especializada en Innovación Digital en la Educación, afirma que, aunque los chatbots parecen humanos simpáticos solo imitan el habla humana a partir de datos extraídos de internet.
“Debemos recordar a los niños que no den a sistemas como ChatGPT información personal delicada, pues toda va a parar a una gran base de datos“, asegura Crompton. Una vez que tus datos están en la base, es casi imposible eliminarlos. Podrían utilizarse para que las empresas tecnológicas ganen más dinero sin tu consentimiento, o incluso podrían ser extraídos por piratas informáticos.
2. Los modelos de IA no reemplazan a los motores de búsqueda
Los grandes modelos lingüísticos son tan buenos como los datos con los que han sido entrenado. Es decir, aunque los chatbots son expertos en responder con confianza a preguntas con una redacción que parece plausible, no toda la información que ofrecen es correcta o fiable. Los modelos lingüísticos de IA también son conocidos por presentar datos falsos como hechos. Dependiendo de dónde se hayan recogido esos datos, pueden perpetuar prejuicios y estereotipos potencialmente dañinos. Los alumnos deben tratar las respuestas de los chatbots, como cualquier tipo de información que encuentren en internet, de manera crítica.
“Estas herramientas no son representativas, lo que nos dicen se basa en lo que se les ha enseñado. No todo el mundo está en internet, así que no se verán reflejados”, afirma Victor Lee, profesor asociado de la Stanford Graduate School of Education (California, EE UU) y creador de recursos gratuitos de IA para planes de estudios de secundaria. “Los estudiantes deberíamos pararnos a reflexionar antes de hacer clic, compartir o reenviar y ser más críticos con lo que vemos y nos creemos, porque mucho de ello podría ser falso”.
Aunque puede ser tentador confiar en los chatbots para responder a las consultas, no son un sustituto de Google u otros motores de búsqueda, asegura David Smith, profesor de Educación en Biociencias en la Universidad Sheffield Hallam (Reino Unido). Además, Smith se ha preparado para ayudar a sus estudiantes a navegar por los usos de la IA en su propio aprendizaje. Los estudiantes no deben aceptar todo lo que dicen los grandes modelos lingüísticos como un hecho indiscutible, y añade: “Sea cual sea la respuesta que te dé, tendrás que comprobarla“.
3. Los profesores podrían acusarte de usar una IA cuando no la has hecho
Ahora que la IA generativa ha llegado a las masas, uno de los mayores retos para los profesores es averiguar cuándo los estudiantes han utilizado la IA para realizar sus tareas. Aunque muchas empresas han lanzado productos que prometen detectar si el texto ha sido escrito por un humano o una máquina, el problema es que las herramientas de detección de texto de IA son bastante poco fiables y es fácil engañarlas. Ha habido muchos ejemplos de casos donde los profesores suponen que una redacción ha sido generada por IA cuando, en realidad, no ha sido así.
Un paso importante es familiarizarse con las políticas sobre IA de la escuela de su hijo o con los procesos de divulgación de la IA, si los hay, y recordar a los menores la importancia de respetarlas, recuerda Lee. Si su hijo ha sido acusado injustamente de utilizar IA en una tarea, recuerde mantener la calma, recomienda Crompton. No tenga miedo de cuestionar la decisión y preguntar cómo se tomó, y no dude en señalar el registro que ChatGPT guarda de las conversaciones de un usuario individual si necesita demostrar que su hijo no tomó material directamente.
4. Los sistemas de recomendación están diseñados para engancharte y pueden mostrarte cosas malas
Es esencial comprender y explicar a los niños cómo funcionan los algoritmos de recomendación, afirma Teemu Roos, profesor de Informática de la Universidad de Helsinki (Finlandia). Roos está elaborando un plan de estudios sobre IA para las escuelas finlandesas. Las empresas tecnológicas ganan dinero cuando la gente ve anuncios en sus plataformas. Por ello, han desarrollado potentes algoritmos de IA que recomiendan contenidos, como vídeos en YouTube o TikTok, para captar la atención de las personas para que permanezcan en la plataforma el mayor tiempo posible. Los algoritmos rastrean y miden de cerca qué tipo de clips ven los usuarios para luego recomendar vídeos similares. Por ejemplo, cuantos más vídeos de gatos veas, es más probable que el algoritmo considere que querrás ver más vídeos de gatos en el futuro.
Estos servicios tienden a guiar a los usuarios hacia contenidos nocivos, como la desinformación, añade Roos. Ya que las personas tienden a permanecer en contenidos extraños o impactantes, como información errónea sobre salud e ideologías políticas extremas. Es fácil caer en un bucle, así que conviene no creerse todo lo que se ve en internet. También debería comprobar la información de otras fuentes fiables.
5. Recuerda utilizar la IA de forma segura y responsable
La IA generativa no se limita al texto, hay muchas aplicaciones gratuitas de deepfake y programas web que pueden imponer la cara de alguien en el cuerpo de otra persona en cuestión de segundos. Aunque los estudiantes hayan sido advertidos de los peligros de compartir imágenes íntimas en internet, deberían ser cautelosos a la hora de subir las caras de sus amigos a aplicaciones que puedan tener riesgo, ya que podría tener repercusiones legales. Por ejemplo, los tribunales han declarado culpables a algunos adolescentes por difundir pornografía infantil y enviar material explícito sobre otros adolescentes, o incluso sobre ellos mismos.
“Mantenemos conversaciones con los niños sobre el comportamiento responsable en internet, tanto por su propia seguridad como para que no acosen, publiquen información privada sobre una persona (doxing, en inglés), o falseen la identidad de otra persona (catfish) a nadie, pero debemos recordarles sus propias responsabilidades“, afirma Lee. “Igual que se extienden los rumores desagradables, puedes imaginarte lo que ocurre cuando alguien empieza a hacer circular una imagen falsa“.
Lee señala que ofrecer a los niños y adolescentes ejemplos concretos de los riesgos legales o para la intimidad derivados del uso de internet ayuda más que hablarles de normas o directrices generales. Por ejemplo, explicarles cómo las apps de edición facial con IA pueden retener las fotos que suben, o señalarles noticias sobre plataformas que han sido pirateadas, puede causar una mayor impresión que las advertencias generales sobre “ten cuidado con tu privacidad”.
6. No te pierdas lo que se le da bien a la IA
No todo es pesimismo. Aunque muchos de los primeros debates sobre la IA en las aulas giraron en torno a su potencial como ayuda para hacer trampas, cuando se utiliza de forma inteligente puede ser una herramienta muy útil. Los alumnos que tengan dificultades para entender un tema complicado pueden pedirle a ChatGPT que se lo explique paso a paso, en forma de rap o se haga pasar por un profesor experto en biología para poner a prueba sus conocimientos. Además, se le da bien elaborar rápidamente tablas detalladas para comparar los pros y los contras sobre universidades, por ejemplo, lo que llevaría horas de investigación y compilación.
Pedir glosarios de palabras difíciles a un chatbot, practicar preguntas de historia antes de un examen, o ayudar a un estudiante a evaluar sus respuestas son otros usos beneficiosos, señala Crompton. “Siempre y cuando se recuerde el sesgo, la tendencia a las alucinaciones y las inexactitudes, y la importancia de la alfabetización digital; si un estudiante lo utiliza de la manera correcta, es estupendo. Todos lo vamos descubriendo sobre la marcha”.
Via
Compartir esto: