Mostrando entradas con la etiqueta Ethan Mollick. Mostrar todas las entradas
Mostrando entradas con la etiqueta Ethan Mollick. Mostrar todas las entradas

lunes, 14 de octubre de 2024

_- Inteligencia artificial Ethan Mollick, analista: “Los estudiantes que usan la IA como muleta no aprenden nada”

Ethan Mollick
_- Ethan Mollick, profesor de la Universidad de Pensilvania (EE UU), acaba de publicar 'Cointeligencia. Vivir y trabajar con la IA' (Conecta).

El veterano profesor, que se ha convertido en una celebridad en redes sociales, publica un libro sobre cómo entender y usar mejor la inteligencia artificial en el día a día.

“No tengo ayuda ni nada. Me organizo yo solo y recibo como 800 mensajes al día. Me da miedo mirar mi lista de tareas”, dice Ethan Mollick (49 años) y profesor de la escuela de negocios Wharton de la Universidad de Pensilvania (EE UU). Acaba de publicar Cointeligencia (Conecta), sobre cómo aprovechar mejor la inteligencia artificial en un uso cotidiano. A pesar de ello, la gestión de su agenda sigue siendo extremadamente complicada. Aunque recomienda usar la IA como acompañante para casi todo, también cree que debemos ir con cuidado. Gracias a su presencia en redes sociales, a su newsletter y sus comentarios cándidos, Mollick se ha convertido en uno de los más populares analistas y probadores de las nuevas herramientas de IA generativa.

Pregunta. ¿Cómo sienta ser un influencer de la IA?
Respuesta. Odio esa descripción. He estado en redes sociales desde hace mucho tiempo, y soy un compartidor compulsivo. Pero no acepto dinero de ninguna de las empresas de IA ni hago acuerdos de patrocinio. Hablo con ellas porque me parece interesante. Soy profesor con plaza fija, puedo decir lo que quiera. Es extraño ver a las empresas intentando manipularme al enseñarme sus cosas, pero no tengo la infraestructura de un influencer. Me preocupa que ese título mezcle todo. Hay una diferencia entre quienes son intelectuales públicos, investigadores y críticos. Sería mejor si tuviéramos más categorías distintas.

Los nuevos modelos de IA como ChatGPT persiguen la ‘superinteligencia’, pero no logran ser fiables ni en preguntas bobas

P. Recomienda pasar tres noches sin dormir para dominar la IA.
R. El consejo que mejor funciona del libro es que hay que pasar 10 horas con la IA y aplicarla a todo lo que haces. Por alguna razón, muy pocos dedican el tiempo necesario para entender estos sistemas.

P. No le gusta llamar muleta a la IA.
R. La muleta es un enfoque peligroso porque si dependemos de una muleta, dejamos de pensar. Los estudiantes que usan la IA como una muleta no aprenden nada. Impide pensar. En cambio, usar la IA como una cointeligencia es importante porque aumenta tus capacidades y también te mantiene involucrado.

P. ¿No es inevitable que la IA nos haga más vagos?
R. Las calculadoras también nos volvieron más flojos. ¿Por qué ya no hacemos cálculos a mano? Deberías ahora estar tomando notas a mano ahora en lugar de grabarme. Usamos la tecnología para tomar atajos, pero tenemos que ser estratégicos en cómo tomamos esos atajos.

P. ¿Por qué debemos acercarnos a la inteligencia artificial con una estrategia?
R. La IA hace tantas cosas que necesitamos poner límites a lo que no queremos ceder. Es una tecnología muy rara, de propósito general, lo que significa que afectará todo tipo de cosas y tendremos que ajustarnos socialmente. Hicimos un trabajo muy malo con el último gran ajuste social, las redes sociales. Esta vez tenemos que ser más reflexivos.

P. ¿Seremos capaces de hacerlo mejor que con las redes?
R. Lo que me da algo de esperanza con esta tecnología es que, al ser tan parecida a los humanos, es más natural trabajar con ella. Los humanos ya trabajamos con colegas inteligentes para resolver problemas. Será distinto si la IA se convierte en una especie de máquina-dios; pero al nivel actual, donde interactúas con esta cosa y tiene fallos, es donde puede ser útil que sea algo similar a un humano.

P. En el libro habla de las “cosas solo mías” en referencia a criar hijos y valores. ¿Hacerlo mejor esas cosas al margen de la IA?
R. Hay muchas decisiones morales y éticas. Yo no puedo ayudar mucho con eso, pero creo que tenemos que tomarlas. Con las redes sociales no tomamos suficientes decisiones sobre cómo queríamos usarlas. La gente y muchos libros ven la IA como algo que se nos impone, y las empresas están creando IA, pero en realidad no saben cómo se está usando o para qué es buena. Nosotros podemos tomar algunas decisiones sobre eso, y creo que la gente tiende a verlo como una decisión del gobierno o de las empresas, pero no es solo así.

P. La gente ya tiene parejas y asesores psicológicos hechos de IA.
R. Hemos vivido con una tecnología de propósito general muchos años: internet. Las redes sociales son solo un aspecto afilado de lo que internet ha hecho a la sociedad. Es solo una aplicación. Otras aplicaciones han sido las apps de citas o cómo compramos. Las implicaciones son profundas y amplias. Por ejemplo, con el modo de voz de la IA, yo no quiero ser su amigo, pero por algún motivo a la vez me veo justificándome y siendo cuidadoso cuando le hablo. Tendremos que adaptarnos. Confío en que podremos, pero la gente ya tiene conexiones con la IA. Otros tendrán conexiones casi religiosas con la IA y otros serán manipulados. Tenemos que reconocer que pasarán muchas cosas, buenas y malas; y cuanto más preparados estemos para ese cambio, mejor.

P. Usted ha escrito que “gran parte del valor del uso de la IA proviene de que la gente no sepa que la usas”. ¿Por qué tememos que los demás sepan que usamos IA?
R. En las organizaciones hay varias capas que vigilan si la gente usa IA. Una de ellas es que si uso IA para hacer mi trabajo, otros pensarán que soy brillante. No quieres que la gente sepa que en realidad no eres tan brillante, sobre todo porque la IA es muy buena en cosas como escribir correos empáticos, y sería raro que supieran que esa empatía viniera de una IA. Tampoco quieren mostrarlo porque tienen miedo de que te des cuenta de que su trabajo es redundante, o de que les pidan hacer más trabajo.

P. Recientemente ha escrito que algo empieza a cambiar con el nuevo modelo de OpenAI, ChatGPT-o1.
R. Acabé el libro hace un año. Necesité tener la suficiente visión para intuir hacia dónde iban las cosas. No me interesaba hacer predicciones de seis años o decir si la IA nos matará o salvará. Mi interés era cómo trabajar con esta cosa. Una de las cosas que menciono, pero que no era tan importante en la generación anterior de IA y que creo que sí será clave en el próximo año o dos, es esta idea de autonomía y agentes. Es el comienzo de una IA que realizará procesos de manera autónoma, sin nuestra ayuda. No creo que eso cambie fundamentalmente cómo trabajamos con la IA, pero quizá vayamos a modelos que vuelven y te hacen preguntas cuando tienen problemas. Hay algo valioso en que nos interroguen. Es algo que hacemos en todas las herramientas de IA que construimos para el aprendizaje: tiene que haber un ida y vuelta, y el modelo o1 no lo hace realmente. No pregunta. Eso es lo que me inquieta.

P. Le gustan los tutores individuales con IA para la educación. ¿Vamos hacia ahí, tras lo que usted llama “el apocalipsis de los deberes”?
R. El tutor con IA es una pieza del puzle en la transformación de la educación. He trabajado en educación interactiva antes de la IA generativa, y hay cosas sobre las aulas que sabemos con certeza que están cambiando, independientemente de la IA: las clases magistrales ya no son una buena idea. Es mejor el aprendizaje activo, donde los alumnos tengan que participar. Es mejor la personalización. En el aula suele participar un grupo pequeño de estudiantes y otros se pierden. No estamos enseñando correctamente. En cierto modo, las clases magistrales tienen su valor, no son un desastre. Tenemos una forma de enseñanza que ha evolucionado durante 200 años y está bien. El apocalipsis de los deberes nos da una oportunidad que no todos vamos a aprovechar, pero deberíamos repensar el aprendizaje.

P. ¿Cómo podremos aprovechar esa oportunidad?
R. Las aulas interactivas en lugar de las clases magistrales son una mejor manera de aprender. No las hemos adoptado porque es más fácil seguir dando charlas y deberes. Tenemos la oportunidad de ser más reflexivos, y los tutores de IA son parte de esa reflexión, porque ayudan a rellenar las brechas de conocimiento. El tiempo en clase debe aprovecharse para trabajar juntos en problemas. No podemos seguir haciendo lo que hacíamos antes.

P. ¿Cuáles son algunos de los mayores malentendidos sobre la IA?
R. La gente está dividida entre los que flipan con la IA y los que están nerviosos o ansiosos. Cada grupo tiene sus propios mitos. Para los que no la adoptan, uno de los mitos más grandes es que la IA no hace nada original y todo lo que obtienes es contenido copiado de otros. Y eso no es así. La IA se construye como un modelo físico complejo para todas las lenguas y utiliza esas reglas para crear material nuevo basado en su entrenamiento. Sí es original. Ese es uno de los grandes malentendidos. El otro es compararlo con Google. Es peor en las cosas que Google hace bien, pero mejor en muchas otras cosas que Google no hace.

P. Dice que los mejores expertos del futuro serán los que más aprovechen la IA. ¿La gente que espera para usar la IA comete un error?
R. Lo entiendo, es una tecnología inquietante. La gente se está volviendo loca. Prueban durante tres noches sin dormir y huyen aterrorizados. Se percibe como una amenaza esencial para muchas carreras. Creo que si eres un buen periodista, al principio piensas: “¡Oh, no!”, pero luego empiezas a ver cómo esto podría ayudar a hacer las cosas mejor que antes; y, al menos durante las próximas generaciones, no va a reemplazarte, aunque los tecnólogos digan que sí. Necesitamos separarnos del ruido de Silicon Valley. Por un lado, tienen toda la razón: es una tecnología milagrosa e increíble que emula el pensamiento; pero, por otro lado, ellos no entienden nada de nuestros trabajos.