Mostrando entradas con la etiqueta Inteligencia artificial. Mostrar todas las entradas
Mostrando entradas con la etiqueta Inteligencia artificial. Mostrar todas las entradas

miércoles, 17 de septiembre de 2025

Cómo China usó a empresas como Apple para superar a EE.UU. y convertirse en líder mundial de la tecnología

Una mujer ensambla manualmente piezas para teléfonos móviles en una fábrica

Fuente de la imagen,Feng Shufeng/VCG vía Getty Images

Pie de foto,Según el periódico japonés Nikkei Asia, 87% de los proveedores de Apple tienen plantas de producción en China.

Que empresas tecnológicas estadounidenses como Apple fabricaran sus productos en China parecía hasta hace poco una jugada empresarial maestra.

La ecuación era sencilla: producir en China es más barato y, por ende, mayor es el margen de ganancia.

Pero, quizás sin darse cuenta, las empresas estadounidenses alimentaron por años a sus rivales del futuro.

Produciendo teléfonos móviles, vehículos eléctricos y un largo etcétera para compañías extranjeras, China fue desarrollando unas capacidades industriales, tecnológicas y humanas con las que hoy difícilmente cualquier otro país puede competir.

Si las empresas estadounidenses utilizaban a China para producir barato, China las estaba utilizando de vuelta para apuntalar su desarrollo tecnológico.

No fue casualidad. Kyle Chan, investigador posdoctoral de la Universidad de Princeton, explica que China hizo un esfuerzo muy deliberado para atraer y utilizar empresas como Apple para mejorar toda su economía.

"Nunca fue tan sencillo como decir: 'Vale, vengan a fabricar aquí y se hacen ricos y todos quedamos contentos'. No. En realidad, es como: 'Tienen que contribuir algo al desarrollo de China'".

"Y no solo Apple, sino también Volkswagen, Bosch, Intel, SK Hynix y Samsung", dice Chan.

Los expertos coinciden en que el centro de gravedad de la industria de la tecnología se ha ido desplazando.

Los días en que Estados Unidos era prácticamente el único país con la capacidad de producir tecnología capaz de cambiar la historia de la humanidad terminaron, y lo que hay ahora es una feroz competencia en todos los sectores.

"Ya no se trata de una carrera de un solo caballo", le dice a BBC Mundo Han Shen Lin, director para China de la consultora estadounidense The Asia Group.

¿Cómo pasó?

Una multitud fotografía con cámaras y iPhones las que parecen ser las versiones  más recientes del iPhone de Apple

Fuente de la imagen,David Paul Morris/Bloomberg vía Getty Images

Pie de foto,

Apple mudó su producción a China a inicios de los 2000.

En su libro Apple in China: The Capture of the World's Greatest Company ("Apple en China: La captura de la empresa más grande del mundo"), Patrick McGee expone, con base en más de 200 entrevistas a extrabajadores de la compañía, que la decisión de Apple de producir más del 90% de sus productos en China produjo grandes ganancias, pero no solo eso.

"La fortuna de Apple y su sofisticada producción desempeñaron un papel fundamental en la financiación, la capacitación, la supervisión y el abastecimiento de los fabricantes chinos, habilidades que ahora Pekín está utilizando como arma contra Occidente", plantea McGee, que excorresponsal del Financial Times en Silicon Valley.

En esa línea, el profesor Chan explica que, con el tiempo, los proveedores extranjeros que hacían parte de la cadena de producción del iPhone y otros dispositivos de Apple empezaron a ser sustituidos por proveedores chinos.

"Empezando por lo básico, como las partes de cristal —los lentes, las pantallas—, luego pasando por los módulos de la cámara y, finalmente, los chips mismos".

Según un análisis de 2024 hecho por el periódico japonés Nikkei Asia, 87% de los proveedores de Apple tienen plantas de producción en China, y más de la mitad tienen su sede principal en China o Hong Kong.

Aunque Apple ha tratado de diversificar los países donde se fabrican los insumos para sus dispositivos, sigue dependiendo ampliamente de fabricantes chinos y, además, de trabajadores chinos que cobran entre US$1 y US$2 la hora.

McGee se atreve a afirmar que, si quisiera, el gobierno chino podría detener la producción de Apple de la noche a la mañana.

Dos hombres observan un teléfono móvil mientras uno de ellos lo sostiene

Fuente de la imagen,VCG/VCG vía Getty Images

Pie de foto,
El gobierno estadounidense ha acusado a la gigante china Huawei (a la izquierda, su director ejecutivo, Yu Chengdong) de espionaje y robo de propiedad intelectual.

Además de convertirse en el proveedor por excelencia de Apple, China aprendió a desarrollar sus propios teléfonos, vehículos eléctricos y hasta modelos de inteligencia artificial, tan sofisticados como los estadounidenses.

Los ingenieros y las millonarias inversiones de Apple y otras empresas occidentales transfirieron conocimiento y capacidades cruciales para innovar a manos chinas, con lo cual contribuyeron directamente a la emergencia gigantes tecnológicos como Huawei, Xiaomi y BYD, dice McGee en "Apple en China".

Y así llegamos a este momento, en el que, aunque EE.UU. sigue estando a la vanguardia, China tiene sus propios gigantes con los que correr la carrera.

En palabras de Han Shen Lin, "Estados Unidos sigue liderando en las tecnologías fundamentales y los chips avanzados, pero China está acortando distancias rápidamente en innovación y escalabilidad en la capa de aplicaciones".

Kyle Chan agrega: "China ha empezado a sobrepasar a EE.UU. en algunas áreas. Y la gran historia aquí es la velocidad con la que lo está haciendo".

La batalla por la IA

Un sector que refleja como pocos la competencia voraz entre Estados Unidos y China es el de la Inteligencia Artificial, la actual joya de la corona de la industria tecnológica.

A pesar de que China ha invertido decididamente en el desarrollo de la IA por décadas, Estados Unidos parecía estar muy por delante con GPT-3, el revolucionario modelo de lenguaje lanzado por la compañía estadounidense OpenAI en 2020,

Y los posteriores lanzamientos de las distintas versiones de ChatGPT, cada una mejor que la anterior, conquistaron el mundo.

Pero entonces, cuando pocos lo esperaban, en enero de este año apareció en el panorama DeepSeek, un chatbot chino muy parecido a ChatGPT. Desarrollarlo, según sus creadores, costó una pequeña fracción de lo que le costó su competidor.

Donald Trump se refirió a la noticia como "un llamado de atención" para la industria tecnológica en EE.UU.

Una mano sostiene un teléfono en cuya pantalla se observa el logo de Deepseek mientras en el fondo se ve el logo de Tesla.

Fuente de la imagen,Cheng Xin/Getty Images

Pie de foto,
Tesla, la empresa de vehículos eléctricos de Elon Musk, anunció que usará la IA de Deepseek para el asistente de voz de sus autos en China.

"Lo importante no era solo que, de repente, un modelo chino fuera casi tan bueno como los mejores modelos estadounidenses, ni que se hubiera logrado con menos recursos informáticos y, según ellos, a un costo mucho menor, sino también —y esto es realmente crucial— que se haya hecho desafiando las restricciones a la exportación de chips para IA", afirma Chan.

Desde 2022, EE.UU. impide que clientes chinos compren los codiciados chips H100 de Nvidia, los más avanzados que existen para entrenar sistemas de IA.

En su lugar, Nvidia produce versiones menos potentes de sus chips específicamente dirigidas a sus clientes en China.

Por eso, para Chan, el lanzamiento de un chatbot chino que le pudiera competir a su contraparte estadounidense era un asunto "patriótico". "Para los chinos, se trataba de un desafío a la supremacía estadounidense", considera.

Deepseek afirma que entrenó su modelo de lenguaje usando los chips desmejorados de Nvidia que se venden en el mercado chino, pero hay rumores de que el fundador de la compañía habría comprado una gran cantidad de chips H100 y los habría combinado con otros menos sofisticados.

En abril, el presidente Donald Trump prohibió las exportaciones del chip H20, el más avanzado que para entonces se permitía vender a China, alegando riesgos para la seguridad nacional.

Recientemente, permitió que se reanuden a cambio de que la empresa le dé al gobierno estadounidense el 15% de sus ventas en China, un acuerdo sin precedentes en el que, además, recaen dudas sobre su legalidad.

Las restricciones de EE.UU. a las exportaciones han obligado a las compañías chinas a buscar alternativas.

Para el profesor Chan, medidas como estas "son efectivas en el corto plazo en términos de ralentizar el desarrollo de China, pero en el mediano a largo plazo, impulsan los esfuerzos de ese país para producir su propia tecnología y cadena de suministro independientes".

Un ejemplo de ello es lo que ocurrió con Huawei, que en 2019 fue añadida a la "Lista de Entidades" que participan en "actividades contrarias a la seguridad nacional o los intereses de la política exterior de EE.UU." tras acusaciones de espionaje, robo de propiedad intelectual y vigilancia de datos.

Debido a ello, los teléfonos móviles de la compañía dejaron de poder usar el sistema operativo Android, de Google.

"Después de sufrir el golpe, Huawei pasó varios años desarrollando su propio sistema operativo y sus propios chips SoC. No creo que lo hubieran hecho a tan gran escala si no hubieran sido sancionados tan duramente por Estados Unidos y, esencialmente, siendo obligados a hacerlo", señala Chan.

Las ventajas de China

Un automóvil amarillo en un centro comercial está rodeado de personas. El el fondo, un letrero de Xiaomi

Fuente de la imagen,CFOTO/Future Publishing vía Getty Images

Pie de foto
Además de teléfonos móviles, gigantes asiáticas como Xiaomi y Huawei han dado el paso hacia al producción de vehículos eléctricos. 

Estados Unidos llegó a ser el líder de la tecnología por la fortaleza de su sector privado, por los grandes incentivos económicos que hay en el país para innovar, por la gran cantidad de energía que produce, entre otras condiciones.


Entonces, ¿cuáles son las ventajas de China?

Los expertos apuntan, por un lado, a su decidida apuesta por una política industrial que invierte recursos del Estado para desarrollar aquellos sectores que considera estratégicos.

Chan plantea en diálogo con BBC Mundo que, mientras que en EE.UU. las inversiones se mueven rápidamente de acuerdo con el mercado, en China el gobierno se atiene a sus planes a largo plazo e invierte consistentemente en ellos, incluso si no le generan réditos inmediatos.

Además, "China tiene un sistema que fomenta una competencia interna muy, muy feroz, en el que los gobiernos locales respaldan sus propias empresas locales y se crea una especie de torneo", dice Chan.

Esa intensa competencia interna produce unos jugadores que logran ser competitivos no solo en China sino también a nivel global.

Otra palabra que mencionan repetidamente los expertos para explicar las ventajas que tiene China en la carrera tecnológica es "magnitud", la magnitud de su población y de los datos que hay sobre esa población.

"China puede poner a prueba tecnologías emergentes con toda su población", señala Han Shen Lin, director para China de The Asia Group.

Por ejemplo, "la capacidad de los fabricantes de medicamentos chinos para reclutar pacientes mucho más rápidamente y aprovechar las bases de datos nacionales centralizadas de pacientes ha acelerado mucho el ritmo de los ensayos clínicos y el descubrimiento de fármacos en China, especialmente en el ámbito de la oncología", decribe Chan.

Todo eso parece poner a China en una posición al menos tan privilegiada como la de EE.UU. para definir el futuro de la tecnología.

Al preguntarle a Lin qué pistas de ese futuro observa en su vida en Shanghái, afirma: "Lo que más me sorprende es cómo la tecnología avanzada se integra a la perfección en la vida cotidiana, desde la logística basada en inteligencia artificial hasta el pago sin efectivo en todo tipo de transacciones".

Sin embargo, advierte que el camino que sigue China no es uno sin riesgos.

"Sin la colaboración y la aceptación de muchos países a nivel global, especialmente en materia de cuáles son los estándares, China corre el riesgo de quedar encerrada una cámara de eco".

Y agrega: "Por ello, China ha ampliado su alcance en el Sur Global mediante iniciativas como la Iniciativa de la Franja y la Ruta, y ha tratado de dominar los organismos que definen los estándares en organizaciones multilaterales como la ONU". 

martes, 22 de octubre de 2024

Geoffrey Hinton, el ganador del Nobel de Física que renunció a Google y denunció los peligros de la inteligencia artificial para la humanidad

Retrato de Geoffrey Hinton

Fuente de la imagen,Getty Images

Pie de foto,
El flamante ganador del Nobel de Física 2024 renunció el año pasado a su puesto en Google preocupado por la evolución de la tecnología que desarrolló.

Información BBC News Mundo 8 octubre 2024

El nombre de Geoffrey Hinton figura ahora junto al de Albert Einstein, Niels Bohr y Enrico Fermi en el selecto club de los científicos reconocidos con el Nobel de Física.

Al profesor emérito de la Universidad de Toronto (Canadá), de 76 años, le fue concedido este martes el galardón junto al catedrático de la Universidad de Princeton (Estados Unidos), John Hopfield, por sus “descubrimientos e invenciones fundamentales que permiten el aprendizaje automático con redes neuronales artificiales”. En otras palabras, por ayudar a que las computadoras aprendan.

El científico ha sido apodado como "el padrino” de la inteligencia artificial" por sus investigaciones sobre la red neuronal, un sistema matemático y computacional que aprende habilidades mediante el análisis de datos.

Sin embargo, en los últimos tiempos el profesor británico-canadiense ha venido advirtiendo de los riesgos que supone para la humanidad la tecnología que él mismo ayudó a desarrollar.

Unas preocupaciones que lo llevaron a abandonar Google a mediados de 2023 y que ha reiterado nada más conocer el veredicto de la Real Academia Sueca de Ciencias.

Arrepentido

"No tenemos experiencia sobre lo que es tener cosas más inteligentes que nosotros", declaró Hinton, durante unas declaraciones que ofreció por teléfono durante la conferencia de prensa del Nobel.

"Va a ser maravilloso en muchos aspectos, en áreas como la atención médica", aseveró el informático nacido en Londres (Reino Unido).

No obstante, acto seguido indicó que "también tenemos que preocuparnos por una serie de posibles consecuencias negativas. En particular, la amenaza de que estas cosas se salgan de control".

Al renunciar a Google, Hinton abogó por ponerle freno al desarrollo de la inteligencia artificial.

"No creo que deban ampliar esto más hasta que hayan entendido si pueden controlarlo", dijo el catedrático, quien en 2018 ganó junto con dos de sus estudiantes el Premio Turing, conocido como el Nobel de computación.

Hinton alertó que mientras más avance esta tecnología más peligrosa se volverá e incluso podría rebelarse contra la humanidad, tal y como han planteado algunas películas como de Hollywood como "Terminator".

"Mira cómo era hace cinco años y cómo es ahora”, agregó el egresado de las universidades de Cambridge y de Edimburgo.

"En este momento, (los sistemas de inteligencia artificial) no son más inteligentes que nosotros, pero creo que pronto lo serán", aseguró en una entrevista con la BBC.

"Mi suposición es que, dentro de 5 o 20 años, habrá una probabilidad del 50% de que tengamos que afrontar el problema de que la inteligencia artificial intente tomar el control de nuestras vidas", advirtió.

¿Por qué impulsó una tecnología que ahora le preocupa? "Me consuelo con la excusa normal: si no lo hubiera hecho yo, lo habría hecho alguien más", dijo en una entrevista al diario estadounidense The New York Times.

Durante la presentación de los ganadores del Nobel de 2024Fuente de la imagen,Getty Images Pie de foto,
Durante la presentación de los ganadores del Nobel de 2024

Fuente de la imagen,Getty Images

Pie de foto,
El informático británico-canadiense fue galardonado junto al estadounidense John Hopfield.

¿Qué es verdad?
La posibilidad de que internet se llene con fotos, videos y textos falsos, y que el usuario promedio "ya no pueda saber qué es verdad" es la preocupación inmediata del galardonado.

Asimismo, Hinton calificó de “aterradores” los peligros que podrían producir la combinación entre chatbots que sean más inteligentes que los humanos y “malos actores”.

“Esto permitirá a los líderes autoritarios manipular a sus electores, cosas así”, indicó a la BBC.

Hinton aseguró que Google actuó "de forma muy responsable" y como un "buen administrador" de la inteligencia artificial hasta 2022, tomando la precaución de no lanzar productos que pudieran hacer daño.

Sin embargo, desde que Microsoft expandió su motor de búsqueda Bing con un chatbot, desafiando el negocio central de Google, se desató una carrera entre los gigantes tecnológicos que "podría ser imposible de detener", alertó.

Hinton aseguró que no renunció a Google para poder criticar la empresa, sino para poder expresar sus opiniones libremente.

"Me fui para poder hablar sobre los peligros de la inteligencia artificial sin considerar cómo afecta esto a Google", explicó.

Un hombre preocupado ante el computador Fuente de la imagen,Getty Images Pie de foto,
Un hombre preocupado ante el computador

Fuente de la imagen,Getty Images

Pie de foto,
La inteligencia artificial podría inundar internet con información falsa, difícil de detectar para los ciudadanos comunes, advirtió Hinton.

"Robots asesinos"

Otra de las inquietudes de Hinton es cómo la inteligencia artificial revolucionará el mercado laboral. En lugar de complementar a los humanos, podría reemplazarlos en innumerables oficios en los que se desempeñan tareas rutinarias.

"Quita el trabajo pesado", pero también "podría quitar más que eso", indicó.

Sin embargo, el verdadero temor del laureado es que las tecnologías en el futuro amenacen a la humanidad y se desarrollen armas verdaderamente autónomas, como "robots asesinos".

Los sistemas de inteligencia artificial "a menudo aprenden un comportamiento inesperado debido a la gran cantidad de datos que analizan", explicó.

"Las personas y las empresas permiten a los sistemas de inteligencia artificial no solo generar su propio código, sino también ejecutar ese código por su cuenta", prosiguió.

"Algunas personas creían en la idea de que estas cosas podían volverse más inteligentes que las personas. Pero la mayoría pensó que estaba muy lejos. Yo pensé que estaba muy lejos, que faltaban entre 30 y 50 años o incluso más. Obviamente, ya no pienso eso", admitió

Aunque se trata de una amenaza hipotética, Hinton vaticinó que la competencia entre Google, Microsoft y otros se convertirá en una carrera global sin regulaciones internacionales.

En esa ocasión el científico recordó que a diferencia de las armas nucleares, no hay forma de saber si las empresas o los países están trabajando en la inteligencia artificial en secreto.

La mayor esperanza de Hinton, quien es el 122 egresado de la Universidad de Cambridge en ganar un premio Nobel, es que los principales científicos del mundo colaboren para desarrollar formas para controlar esta tecnología.

lunes, 14 de octubre de 2024

_- Inteligencia artificial Ethan Mollick, analista: “Los estudiantes que usan la IA como muleta no aprenden nada”

Ethan Mollick
_- Ethan Mollick, profesor de la Universidad de Pensilvania (EE UU), acaba de publicar 'Cointeligencia. Vivir y trabajar con la IA' (Conecta).

El veterano profesor, que se ha convertido en una celebridad en redes sociales, publica un libro sobre cómo entender y usar mejor la inteligencia artificial en el día a día.

“No tengo ayuda ni nada. Me organizo yo solo y recibo como 800 mensajes al día. Me da miedo mirar mi lista de tareas”, dice Ethan Mollick (49 años) y profesor de la escuela de negocios Wharton de la Universidad de Pensilvania (EE UU). Acaba de publicar Cointeligencia (Conecta), sobre cómo aprovechar mejor la inteligencia artificial en un uso cotidiano. A pesar de ello, la gestión de su agenda sigue siendo extremadamente complicada. Aunque recomienda usar la IA como acompañante para casi todo, también cree que debemos ir con cuidado. Gracias a su presencia en redes sociales, a su newsletter y sus comentarios cándidos, Mollick se ha convertido en uno de los más populares analistas y probadores de las nuevas herramientas de IA generativa.

Pregunta. ¿Cómo sienta ser un influencer de la IA?
Respuesta. Odio esa descripción. He estado en redes sociales desde hace mucho tiempo, y soy un compartidor compulsivo. Pero no acepto dinero de ninguna de las empresas de IA ni hago acuerdos de patrocinio. Hablo con ellas porque me parece interesante. Soy profesor con plaza fija, puedo decir lo que quiera. Es extraño ver a las empresas intentando manipularme al enseñarme sus cosas, pero no tengo la infraestructura de un influencer. Me preocupa que ese título mezcle todo. Hay una diferencia entre quienes son intelectuales públicos, investigadores y críticos. Sería mejor si tuviéramos más categorías distintas.

Los nuevos modelos de IA como ChatGPT persiguen la ‘superinteligencia’, pero no logran ser fiables ni en preguntas bobas

P. Recomienda pasar tres noches sin dormir para dominar la IA.
R. El consejo que mejor funciona del libro es que hay que pasar 10 horas con la IA y aplicarla a todo lo que haces. Por alguna razón, muy pocos dedican el tiempo necesario para entender estos sistemas.

P. No le gusta llamar muleta a la IA.
R. La muleta es un enfoque peligroso porque si dependemos de una muleta, dejamos de pensar. Los estudiantes que usan la IA como una muleta no aprenden nada. Impide pensar. En cambio, usar la IA como una cointeligencia es importante porque aumenta tus capacidades y también te mantiene involucrado.

P. ¿No es inevitable que la IA nos haga más vagos?
R. Las calculadoras también nos volvieron más flojos. ¿Por qué ya no hacemos cálculos a mano? Deberías ahora estar tomando notas a mano ahora en lugar de grabarme. Usamos la tecnología para tomar atajos, pero tenemos que ser estratégicos en cómo tomamos esos atajos.

P. ¿Por qué debemos acercarnos a la inteligencia artificial con una estrategia?
R. La IA hace tantas cosas que necesitamos poner límites a lo que no queremos ceder. Es una tecnología muy rara, de propósito general, lo que significa que afectará todo tipo de cosas y tendremos que ajustarnos socialmente. Hicimos un trabajo muy malo con el último gran ajuste social, las redes sociales. Esta vez tenemos que ser más reflexivos.

P. ¿Seremos capaces de hacerlo mejor que con las redes?
R. Lo que me da algo de esperanza con esta tecnología es que, al ser tan parecida a los humanos, es más natural trabajar con ella. Los humanos ya trabajamos con colegas inteligentes para resolver problemas. Será distinto si la IA se convierte en una especie de máquina-dios; pero al nivel actual, donde interactúas con esta cosa y tiene fallos, es donde puede ser útil que sea algo similar a un humano.

P. En el libro habla de las “cosas solo mías” en referencia a criar hijos y valores. ¿Hacerlo mejor esas cosas al margen de la IA?
R. Hay muchas decisiones morales y éticas. Yo no puedo ayudar mucho con eso, pero creo que tenemos que tomarlas. Con las redes sociales no tomamos suficientes decisiones sobre cómo queríamos usarlas. La gente y muchos libros ven la IA como algo que se nos impone, y las empresas están creando IA, pero en realidad no saben cómo se está usando o para qué es buena. Nosotros podemos tomar algunas decisiones sobre eso, y creo que la gente tiende a verlo como una decisión del gobierno o de las empresas, pero no es solo así.

P. La gente ya tiene parejas y asesores psicológicos hechos de IA.
R. Hemos vivido con una tecnología de propósito general muchos años: internet. Las redes sociales son solo un aspecto afilado de lo que internet ha hecho a la sociedad. Es solo una aplicación. Otras aplicaciones han sido las apps de citas o cómo compramos. Las implicaciones son profundas y amplias. Por ejemplo, con el modo de voz de la IA, yo no quiero ser su amigo, pero por algún motivo a la vez me veo justificándome y siendo cuidadoso cuando le hablo. Tendremos que adaptarnos. Confío en que podremos, pero la gente ya tiene conexiones con la IA. Otros tendrán conexiones casi religiosas con la IA y otros serán manipulados. Tenemos que reconocer que pasarán muchas cosas, buenas y malas; y cuanto más preparados estemos para ese cambio, mejor.

P. Usted ha escrito que “gran parte del valor del uso de la IA proviene de que la gente no sepa que la usas”. ¿Por qué tememos que los demás sepan que usamos IA?
R. En las organizaciones hay varias capas que vigilan si la gente usa IA. Una de ellas es que si uso IA para hacer mi trabajo, otros pensarán que soy brillante. No quieres que la gente sepa que en realidad no eres tan brillante, sobre todo porque la IA es muy buena en cosas como escribir correos empáticos, y sería raro que supieran que esa empatía viniera de una IA. Tampoco quieren mostrarlo porque tienen miedo de que te des cuenta de que su trabajo es redundante, o de que les pidan hacer más trabajo.

P. Recientemente ha escrito que algo empieza a cambiar con el nuevo modelo de OpenAI, ChatGPT-o1.
R. Acabé el libro hace un año. Necesité tener la suficiente visión para intuir hacia dónde iban las cosas. No me interesaba hacer predicciones de seis años o decir si la IA nos matará o salvará. Mi interés era cómo trabajar con esta cosa. Una de las cosas que menciono, pero que no era tan importante en la generación anterior de IA y que creo que sí será clave en el próximo año o dos, es esta idea de autonomía y agentes. Es el comienzo de una IA que realizará procesos de manera autónoma, sin nuestra ayuda. No creo que eso cambie fundamentalmente cómo trabajamos con la IA, pero quizá vayamos a modelos que vuelven y te hacen preguntas cuando tienen problemas. Hay algo valioso en que nos interroguen. Es algo que hacemos en todas las herramientas de IA que construimos para el aprendizaje: tiene que haber un ida y vuelta, y el modelo o1 no lo hace realmente. No pregunta. Eso es lo que me inquieta.

P. Le gustan los tutores individuales con IA para la educación. ¿Vamos hacia ahí, tras lo que usted llama “el apocalipsis de los deberes”?
R. El tutor con IA es una pieza del puzle en la transformación de la educación. He trabajado en educación interactiva antes de la IA generativa, y hay cosas sobre las aulas que sabemos con certeza que están cambiando, independientemente de la IA: las clases magistrales ya no son una buena idea. Es mejor el aprendizaje activo, donde los alumnos tengan que participar. Es mejor la personalización. En el aula suele participar un grupo pequeño de estudiantes y otros se pierden. No estamos enseñando correctamente. En cierto modo, las clases magistrales tienen su valor, no son un desastre. Tenemos una forma de enseñanza que ha evolucionado durante 200 años y está bien. El apocalipsis de los deberes nos da una oportunidad que no todos vamos a aprovechar, pero deberíamos repensar el aprendizaje.

P. ¿Cómo podremos aprovechar esa oportunidad?
R. Las aulas interactivas en lugar de las clases magistrales son una mejor manera de aprender. No las hemos adoptado porque es más fácil seguir dando charlas y deberes. Tenemos la oportunidad de ser más reflexivos, y los tutores de IA son parte de esa reflexión, porque ayudan a rellenar las brechas de conocimiento. El tiempo en clase debe aprovecharse para trabajar juntos en problemas. No podemos seguir haciendo lo que hacíamos antes.

P. ¿Cuáles son algunos de los mayores malentendidos sobre la IA?
R. La gente está dividida entre los que flipan con la IA y los que están nerviosos o ansiosos. Cada grupo tiene sus propios mitos. Para los que no la adoptan, uno de los mitos más grandes es que la IA no hace nada original y todo lo que obtienes es contenido copiado de otros. Y eso no es así. La IA se construye como un modelo físico complejo para todas las lenguas y utiliza esas reglas para crear material nuevo basado en su entrenamiento. Sí es original. Ese es uno de los grandes malentendidos. El otro es compararlo con Google. Es peor en las cosas que Google hace bien, pero mejor en muchas otras cosas que Google no hace.

P. Dice que los mejores expertos del futuro serán los que más aprovechen la IA. ¿La gente que espera para usar la IA comete un error?
R. Lo entiendo, es una tecnología inquietante. La gente se está volviendo loca. Prueban durante tres noches sin dormir y huyen aterrorizados. Se percibe como una amenaza esencial para muchas carreras. Creo que si eres un buen periodista, al principio piensas: “¡Oh, no!”, pero luego empiezas a ver cómo esto podría ayudar a hacer las cosas mejor que antes; y, al menos durante las próximas generaciones, no va a reemplazarte, aunque los tecnólogos digan que sí. Necesitamos separarnos del ruido de Silicon Valley. Por un lado, tienen toda la razón: es una tecnología milagrosa e increíble que emula el pensamiento; pero, por otro lado, ellos no entienden nada de nuestros trabajos.

miércoles, 22 de mayo de 2024

Los trabajos que por ahora están a salvo y no pueden ser realizados por la inteligencia artificial

Médica y paciente

FUENTE DE LA IMAGEN,GETTY IMAGES

Pie de foto,Si bien un robot puede aparentemente proporcionar un diagnóstico más rápido, los pacientes seguirán queriendo que los humanos los guíen y eduquen.


Desde el comienzo de la revolución industrial, ha habido amenazas de que nuevas máquinas –desde telares mecanizados hasta microchips– usurparían los empleos humanos. En su mayor parte, los humanos han prevalecido.

Ahora, dicen algunos expertos, con la ubicuidad de la inteligencia artificial en el horizonte, la amenaza se está haciendo realidad: los robots realmente vienen a quitarnos algunos trabajos.

Un informe de 2023 de Goldman Sachs estimó que la IA capaz de generar contenido podría realizar una cuarta parte de todo el trabajo que realizan actualmente los humanos.

En la Unión Europea y Estados Unidos, señala además el informe, la automatización podría hacer que se pierdan 300 millones de puestos de trabajo. Y eso podría ser terrible, dice Martin Ford, autor de “Rule of the Robots: How Artificial Intelligence Will Transform Everything”. ("El gobierno de los robots: cómo la inteligencia artificial lo transformará todo".)

"No es sólo que esto le suceda a individuos, sino que podría ser bastante sistémico", sostiene. “Le podría pasar a mucha gente, potencialmente de forma bastante repentina, potencialmente a todas al mismo tiempo. Y eso tiene implicaciones no sólo para esos individuos, sino para toda la economía”.

Afortunadamente, no todo son malas noticias. Los expertos hacen sus advertencias con una salvedad: todavía hay cosas que la IA no es capaz de hacer, como tareas que involucran habilidades claramente humanas, como la inteligencia emocional y la capacidad de pensar fuera del marco establecido.

Y asumir roles que se centren esas habilidades podría ayudar a reducir las posibilidades de ser reemplazado.

Trabajos "protegidos"

"Creo que en general hay tres categorías que estarán relativamente protegidas en el futuro previsible", dice Ford. "La primera serían trabajos que sean genuinamente creativos: no estás haciendo un trabajo convencional o simplemente reorganizando cosas, sino que realmente estás generando nuevas ideas y construyendo algo nuevo".

Gente trabajando.

Gente trabajando

FUENTE DE LA IMAGEN,GETTY IMAGES

Pie de foto,
Algunos trabajos están relativamente protegidos porque requieren habilidades típicamente humanas. 

Eso no significa necesariamente que todos los trabajos que se consideran “creativos” sean seguros. De hecho, aspectos como el diseño gráfico y los roles relacionados con las artes visuales pueden estar entre los primeros en desaparecer.

Los algoritmos básicos pueden ordenar a un robot que analice millones de imágenes, lo que permite a la IA dominar la estética al instante.

Pero hay cierta seguridad en otros tipos de creatividad, dice Ford: “en la ciencia, la medicina y el derecho... personas cuyo trabajo consiste en idear una nueva estrategia legal o de negocios. Creo que allí va a seguir habiendo un lugar para el ser humano”.

La segunda categoría protegida, continúa, son los trabajos que requieren relaciones interpersonales sofisticadas. Ford se refiere a enfermeras, consultores empresariales y periodistas de investigación.

Estos son trabajos, afirma, “en los que se necesita un conocimiento muy profundo de la gente. Creo que pasará mucho tiempo antes de que la IA tenga la capacidad de interactuar de forma tal que realmente construya relaciones”.

La tercera zona segura, dice Ford, “son trabajos que realmente requieren mucha movilidad, destreza y capacidad para resolver problemas en entornos impredecibles”. Muchos oficios (pensemos en electricistas, plomeros, soldadores y otros trabajos similares) entran en esta categoría.

"Este es el tipo de trabajos en los que te enfrentas a una situación nueva todo el tiempo", añade. 

“Probablemente sean los más difíciles de automatizar. Para automatizar trabajos como este, necesitarías un robot de ciencia ficción. Necesitarías el C-3PO de Star Wars”.

Aspectos que se automatizarán

Si bien es probable que los humanos permanezcan en empleos que caen dentro de esas categorías, eso no significa que esas profesiones estén totalmente protegidas del crecimiento de la IA.

De hecho, señala Joanne Song McLaughlin, profesora asociada de economía laboral en la Universidad de Búfalo, EE.UU., la mayoría de los empleos, independientemente de la industria, tienen aspectos que probablemente serán automatizados por la tecnología.

Personal de limpieza

Personal de limpieza

FUENTE DE LA IMAGEN,GETTY IMAGES

Pie de foto,
Los trabajos que requieren una gran movilidad tienen más probabilidades de estar protegidos de la automatización. 

"En muchos casos, no existe una amenaza inmediata para los puestos de trabajo", afirma, "pero las tareas cambiarán". Los trabajos humanos se centrarán más en las habilidades interpersonales, continúa Song McLaughlin.

“Es fácil imaginar que, por ejemplo, la IA detectará cánceres mucho mejor que los humanos. En el futuro, supongo que los médicos utilizarán esa nueva tecnología. Pero no creo que se reemplace todo el papel del médico”.

Aunque un robot puede aparentemente hacer un mejor trabajo a la hora de encontrar el cáncer, afirma, la mayoría de la gente seguirá queriendo que sea un médico (una persona real) quien les informe sobre ello.

Esto es cierto para casi todos los trabajos, añade, por lo que desarrollar esas habilidades específicamente humanas podría ayudar a las personas a aprender a hacer su trabajo junto con la IA.

“Creo que es inteligente pensar realmente: '¿qué tipo de tareas dentro de mi trabajo serán reemplazadas o serán mejor realizadas por computadora o IA? ¿Y cuál es mi habilidad complementaria?’”.

Song McLaughlin pone como ejemplo a los cajeros de banco, que alguna vez tuvieron que ser contadores de dinero muy precisos. Ahora esa tarea se ha automatizado, pero todavía hay un lugar para el cajero.

“La tarea de contar dinero quedó obsoleta debido a una máquina”, afirma. “Pero ahora, los cajeros están más centrados en conectarse con los clientes y presentar nuevos productos. La habilidad social se ha vuelto más importante”.

Cajera

Cajera

FUENTE DE LA IMAGEN,GETTY IMAGES

Pie de foto,
El trabajo de cajero está ahora más centrado en desarrollar la relación con los clientes. 

Es importante señalar, dice Ford, que una educación avanzada o un puesto bien remunerado no es una defensa contra el avance de la IA. "Podríamos pensar que una persona con un trabajo administrativo ocupa un lugar más alto en la estructura que alguien que se gana la vida conduciendo un coche", señala.

“Pero el futuro del empleado administrativo está más amenazado que el del conductor de Uber, porque todavía no tenemos coches autónomos, pero la IA ciertamente puede escribir informes. En muchos casos, los trabajadores más educados se verán más amenazados que los trabajadores menos educados. Piensa en la persona que trabaja limpiando habitaciones de hotel: es muy difícil automatizar ese trabajo”.

En resumen, buscar roles en entornos dinámicos y cambiantes que incluyan tareas impredecibles es una buena manera de evitar la pérdida de empleos a causa de la IA. Al menos por un tiempo.

martes, 5 de marzo de 2024

EDUCACIÓN TRIBUNA. El mejor profesor de matemáticas del mundo, solo para ti

Un chico resuelva un problema matemático en la pizarra
Un chico resuelva un problema matemático en la pizarra.
La inteligencia artificial va a ser una ayuda inestimable para mejorar la enseñanza de esta materia y los profesores tienen que entender que no es ninguna amenaza ni para ellos ni para sus alumnos.

El daño que puede hacer un mal profesor de matemáticas es incalculable. Literalmente: no se puede calcular. Lo que llamamos ansiedad matemática, o miedo a las matemáticas, tiene menos de ansiedad que del más puro, simple y desesperante aburrimiento. El niño y la niña aprenden disciplinadamente a multiplicar matrices, intersectar conjuntos y derivar funciones, pero no entienden una palabra de lo que están haciendo, de qué significa eso, para qué vale, por qué es una forma de pensar de extraordinaria elegancia y eficacia.

Para que los alumnos entiendan los conceptos matemáticos fundamentales, se interesen por ellos y los incorporen a su caja de herramientas para el futuro, hace falta un buen profesor, quizá incluso un gran profesor. Pero claro, ¿cómo se hace eso? Tu cuadro docente no puede estar compuesto por medallas Fields (uno de los galardones más prestigiosos de las matemáticas) y premios Abel  (considerado el Nobel de las matemáticas). Tienes que obrar el prodigio con los recursos humanos que tienes al alcance, que son gente normal con una formación media. Entonces ¿qué hacemos?
 
Respuesta: usar las neuronas, amigos. Las nuestras y las de las máquinas. La inteligencia artificial va a ser una ayuda inestimable para mejorar la enseñanza de las matemáticas, del lenguaje y de todo lo demás. Y los profesores tienen que entender que las máquinas no son ninguna amenaza ni para ellos ni para sus alumnos, sino que están aquí para ayudarles a ambos.

Mientras la atmósfera social se carga de un rechazo a la inteligencia artificial no muy reflexivo, a veces casi religioso, los expertos están proponiendo ideas muy interesantes para introducir las máquinas en las aulas. Mi favorita es la personalización, y voy a intentar explicar por qué.

Como todos los mocosos, aprendí en el colegio a operar con matrices, esos rectangulitos con filas y columnas de números que se pueden sumar, restar, multiplicar y manipular de varias formas. Los chavales aprendíamos esos procedimientos como si fueran una verdad revelada, pasábamos el examen si había suerte y nos poníamos a otra cosa. Aquello me sirvió más o menos para lo mismo que memorizar la lista de los reyes godos: para nada. Instruir a los niños para que se comporten como calculadoras humanas es inútil y dañino. El saber ocupa lugar, y conviene reservar nuestra memoria siempre escasa para cosas más importantes que esos sudokus insustanciales.

Ya era un adulto con entradas en la frente, cuando por fin pude entender de qué iba todo eso, y darme cuenta de lo fascinante, profundo y creativo que resulta ese arte de jugar con las matrices, álgebra lineal en la jerga. Y esa epifanía se debió a mi buena fortuna de descubrir a Gilbert Strang, el mejor profesor de matemáticas del mundo.

Strang, un pionero de la educación en línea, había grabado sus clases de álgebra lineal en el Instituto de Tecnología de Massachusetts (MIT) sus clases de álgebra lineal en el Instituto de Tecnología de Massachusetts (MIT), y las había colgado en la web de la universidad. No era más que el tipo explicando el tema a sus alumnos tiza en mano sobre la pizarra, pero de pronto, de alguna manera, allí se hacía la luz y el entendimiento se abría paso entre la espesura de mi infancia.

Es tan fácil como eso. Basta con tener al mejor profesor del mundo en tu aula. Antes era imposible, pero ahora está al alcance de cualquier escuela urbana o rural. Y ahora demos un paso más. Strang me fue bien a mí, pero seguro que otros alumnos y otros profesores tendrán otras preferencias, otras necesidades, lagunas, demandas de explicación adicional o de volver a la primera casilla sobre algún punto que se te atasca. Ahí es donde la inteligencia artificial puede aportar unos recursos educativos personalizados y muy valiosos.

A partir de ahora, cada alumno puede inventar a su Gilbert Strang, diseñar a su profesor de matemáticas perfecto. El miedo a los robots no nos lleva a ningún lado. Si no puedes vencerlos, únete a ellos. Es por el bien de los niños, amigo.

domingo, 18 de febrero de 2024

_- ChatGPT llegó hace un año a las aulas, ahora los profesores no quieren librarse de él.

_- La inteligencia artificial generativa supuso un terremoto educativo en todos los niveles. Rectores y docentes comparten cómo han integrado el bot en sus clases

Rectores y docentes comparten cómo han integrado el bot en sus clases.

Cuando los alumnos del Máster de Tecnología Aplicada a la Educación de la Universidad Internacional de Valencia (VIU) reciben su primera clase, el profesor empieza con una pregunta a ChatGPT. “¿La inteligencia artificial va a reemplazar a los docentes?”, teclea en el programa. La respuesta, inmediata y breve, es la misma en cada sesión: “No, siempre y cuando estén actualizados y formados”, contesta de forma escrita el bot conversacional. Una capa de asombro se extiende en el aula. A Francisco Recio-Muñoz, quien dirige este posgrado, le parece la contestación que dibuja con mayor precisión el futuro.

Esta semana se ha cumplido un año desde el aterrizaje de ChatGPT 3.5. Su poder conversacional y generativo le valieron la definición de tecnología revolucionaria. En cinco días alcanzó el millón de descargas, un hito nunca antes conseguido en tan poco tiempo por ninguna otra aplicación. El programa es capaz de generar textos coherentes y de entender y procesar el lenguaje natural en distintos contextos. En el ámbito educativo, posee una destreza notable para escribir código informático o para completar un ensayo universitario y podría aprobar el examen de selectividad, aunque por los pelos.

El debate sobre su prohibición parece estar superado. La conversación ahora se ha trasladado a cómo sacar el mayor potencial de esta tecnología en el aula. Para algunos profesores representa un desafío, otros ven con recelo su avance y cada vez más asumen que no podrían volver a dar clase sin el programa.
El profesor de la Universidad de Navarra (UNAV) Francesc Pujol, experto en ChatGPT, esta semana.El profesor de la Universidad de Navarra (UNAV) Francesc Pujol, experto en ChatGPT, esta semana.
Francesc Pujol (53 años) pertenece a este último grupo. El profesor en Liderazgo e Innovación en la Universidad de Navarra exige a sus alumnos en los últimos minutos de cada sesión que le realicen una pregunta “relevante” a ChatGPT de acuerdo al temario revisado durante clase. Después evalúa la respuesta que les devuelve el bot. “Si han hecho una buena pregunta significa que han entendido bien la clase”, explica el profesor, que más tarde las puntúa.

Pujol considera necesario que los estudiantes universitarios se gradúen con nociones básicas en el uso de inteligencia artificial (IA) generativa. “Mi misión es que los alumnos aprendan a pensar para el ámbito profesional. Los resultados ya no van a ser importantes, sino las preguntas. Hay que aprender a formular bien preguntas que nos lleven a escenarios nuevos donde se produzcan distintos tipos de reflexiones. Pero el programa solo me da respuestas buenas cuando le hago preguntas buenas. ¿Y de dónde salen? De entender mejor los problemas que nos rodean”, reflexiona el profesor. “Las empresas no van a esperar medio año a que se formen en inteligencia artificial; buscan personal que sepa aplicarla ya”, resalta.
Germán Ruipérez, fotografiado este jueves junto al rectorado de la UNED en Madrid.Germán Ruipérez, fotografiado este jueves junto al rectorado de la UNED en Madrid
Como él, otros docentes se han visto obligados a adaptar los criterios y las actividades de evaluación. Es el caso de Isidro Navarro (52 años), profesor de arquitectura en la Universitat Politècnica de Catalunya (UPC), que asegura que la llegada de ChatGPT ha supuesto una revolución en sus clases. Gracias a la herramienta de inteligencia artificial generativa DALL-E, los estudiantes son capaces de recrear espacios urbanos o edificios con rapidez, cuando antes este proceso requería “días o semanas”. Germán Ruipérez, catedrático de Lingüística Alemana en la Universidad Nacional de Educación a Distancia (UNED), coincide en la necesidad de adaptación. “Las pruebas de evaluación continua, consistentes en redactar un texto o un resumen, han caído en picado”, comparte.
Imágenes generadas por inteligencia artificial para clases de arquitectura del profesor de la Universitat Politècnica de Catalunya, Isidro Navarro.Imágenes generadas por inteligencia artificial para clases de arquitectura del profesor de la Universitat Politècnica de Catalunya, 
Tanto en el ámbito legal como en el educativo, la sensación es que se ha ido un par de zancadas por detrás de esta tecnología desde su lanzamiento. El auge exponencial durante los primeros meses de ChatGPT abrió el debate en Europa sobre hasta qué punto había que regularizarlo. Italia dio el primer paso a finales de marzo de este año, cuando bloqueó su uso por incumplir la normativa de protección de datos y por carecer de filtros para verificar la edad de los menores. Aunque la prohibición se levantó. A finales de mayo, una ristra de expertos en inteligencia artificial alertaron sobre el “peligro de extinción” que supone esta tecnología para la humanidad.

Persiste la sensación de que el alumnado ha tomado rápidamente la delantera. Pujol lo constató mientras impartía un seminario a 200 alumnos de instituto. Les preguntó cuántos de ellos hacían uso de la herramienta y se levantaron prácticamente todos los brazos. Por ello, Ruipérez opina que ha pillado en fuera de juego a los docentes. “Es una revolución que ha venido de abajo arriba”, comenta el catedrático de Lingüística Alemana.

Los institutos toman las riendas

Serxio Gómez, de 44 años, es profesor de Tecnología en un instituto de A Coruña y habla convencido del potencial de ChatGPT. “Es una herramienta valiosísima que puede servir como un guía o un asesor y para tener un borrador inicial en las actividades y ofrecerles ideas creativas”, relata Gómez. Una visión que comparte Beatriz Méndez (49 años), profesora de Tecnología en el IES Rego de Trabe de Culleredo en la misma ciudad, que empezó a usarlo en marzo de este año para temas de programación. “La parte tediosa de escribir código se ha reducido”, comenta Méndez.

Ambos profesores gallegos coinciden en que el éxito de su uso radica en enseñar al alumnado a utilizarlo como un apoyo más, y no para “copiar y pegar” la información que ofrece. En el caso de Gómez, a principio de curso pactó un contrato con su alumnado en el que él les permitía hacer uso de ChatGPT en sus trabajos a cambio de que los estudiantes presentaran un documento explicando qué instrucciones le habían dado y para qué parte del trabajo lo habían usado. Todos firmaron.
 
Serxio Gómez, profesor de Tecnología en el Instituto Eusebio da Guarda (A Coruña), esta semana.Serxio Gómez, profesor de Tecnología en el Instituto Eusebio da Guarda (A Coruña), esta semana
Un aspecto en el que coinciden tanto profesores de instituto como de universidad es en la reducción de la carga de trabajo. Por ejemplo, en la preparación de clases, como comenta la gallega Méndez, o para la programación de las actividades del centro. Ruipérez estima que su trabajo de una semana se ha reducido “a una décima parte”.

La calculadora ha sido una metáfora recurrente en varios de los entrevistados en este reportaje para comparar el miedo a la introducción de ChatGPT. “Cuando se empezó a utilizar, se hablaba de que iba a limitar la capacidad del alumnado para hacer operaciones, y ahora es una herramienta más”, recuerda el profesor de Tecnología Serxio Gómez. También Ruipérez la menciona. A la gallega Méndez no le preocupa o, al menos, “no más que cuando llegó Google”. Ella apunta a la utilidad que puede tener para “atender la diversidad del alumnado”. Una idea con la que concuerda el catedrático emérito de Sociología Mariano Fernández Enguita. “ChatGPT puede actuar como un tutor para los estudiantes menos equipados. Es mejor que nada”, comenta.
Beatriz Méndez, profesora en el IES Rego de Trabe en Culleredo (A Coruña), esta semana.Beatriz Méndez, profesora en el IES Rego de Trabe en Culleredo (A Coruña), esta semana.
Formación del profesorado
Otra de las preocupaciones es la formación del profesorado. En la Universidad Complutense de Madrid se han ido desplegando cursos, según explica el rector de la institución, Joaquín Goyache, para preparar a los docentes. “Estamos desarrollando un programa para 50 formadores, uno por cada facultad”, anuncia, aunque admite que el proceso no llegará a completarse este año, sino que seguirá durante el siguiente. Esta lentitud preocupa a algunos profesores que opinan que la universidad necesita acelerar el paso para ponerse al día con este tipo de herramientas tecnológicas.

Gutmaro Gómez, profesor de Historia en la Universidad Complutense de Madrid, considera que en el mundo educativo “no todos están acostumbrados a innovar”. “Ven cierto recelo con los cambios tecnológicos, como si los alumnos fueran a usar estas herramientas solo para copiar y no para estudiar”, reclama, y defiende que su clase de Historia Contemporánea “debería empezar a impartirse en aulas de informática”. El docente, que tiene a su cargo alrededor de 200 estudiantes de grado, también ha empezado a usar en sus clases DALL-E para recrear momentos bélicos y generar mapas antiguos.
Gutmaro Gómez, historiador en la Facultad de Geografía e Historia de la Universidad Complutense en Madrid, esta semana.Gutmaro Gómez, historiador en la Facultad de Geografía e Historia de la Universidad Complutense en Madrid, esta semana.

Este verano, el Parlamento Europeo acordó por amplia mayoría abrir las discusiones para sacar adelante una Ley de Inteligencia Artificial, cuya previsión es que se apruebe antes de que termine el año. La Conferencia de Rectores de las Universidades (CRUE) también está preparando un manual de prácticas responsables para el uso de la inteligencia artificial a nivel universitario. Así lo confirma Daniel Crespo, rector de la Universitat Politècnica de Catalunya. “Debemos hacer un esfuerzo para que nuestros alumnos sean usuarios expertos en el uso de esta tecnología”, subraya Crespo, que rechaza la idea de que las universidades impartan un curso especializado y general para el uso de la inteligencia artificial y aboga porque cada una de las asignaturas moldee el uso por su cuenta. 

Daniel Crespo, en su despacho del rectorado de la Universidad Politécnica de Cataluña.Daniel Crespo, en su despacho del rectorado de la Universidad Politécnica de Cataluña.

Las universidades en línea tampoco quiere quedarse atrás. Eva María Giner, rectora de la VIU, mira con preocupación la llegada de ChatGPT, pero afirma que es mejor actuar con asertividad para que sea una herramienta de apoyo para mejorar el trabajo de docentes y alumnos. “En esta universidad ya es una herramienta vital para mejorar los procesos de evaluación”, comparte Giner.

“Lo que vemos hoy en ChatGPT es la peor versión de lo que tendremos en cinco años”, resuelve Pujol, de la Universidad de Navarra. En la VIU, 600 estudiantes de edades variopintas, que serán futuros profesores o que ya han iniciado este camino, se preparan para liderar la transformación en el aula a través del máster que ofrece la institución. “Son ellos quienes nos piden que les indiquemos cómo usar ChatGPT. No se quieren quedar atrás”, zanja Recio-Muñoz. El director del programa cree que primero los docentes deben entender qué implica la innovación en el aula. “Aunque la transformación sea tecnológica, es un proceso de socialización y de comprensión interna de cada profesor”, sentencia.
 
Eva María Giner, rectora de la Universidad Internacional de Valencia, en una fotografía tomada en la sede esta semana.Eva María Giner, rectora de la Universidad Internacional de Valencia, en una fotografía tomada en la sede esta semana.