Mostrando entradas con la etiqueta IA. Mostrar todas las entradas
Mostrando entradas con la etiqueta IA. Mostrar todas las entradas

domingo, 19 de mayo de 2024

Consejos para que las escuelas y los docentes sobrevivan (y prosperen) con la IA.

An illustration renders a classroom, including desks, bookshelves and a chalkboard, in bright colors with random spheres, triangles and objects like a light bulb floating into the scene.
Credit...Víctor Arce
Paso 1: Asumir que todos los estudiantes van a utilizar los chatbots de inteligencia artificial.

En noviembre pasado, cuando se lanzó ChatGPT, muchas escuelas se sintieron como si hubieran sido impactadas por un asteroide.

A la mitad de un curso académico, sin previo aviso, los profesores se vieron obligados a enfrentarse a la nueva tecnología, de aspecto alienígena, que permitía a los alumnos escribir ensayos de nivel universitario, resolver problemas complejos y superar exámenes estandarizados.

El Times Una selección semanal de historias en español que no encontrarás en ningún otro sitio, con eñes y acentos. Get it sent to your inbox.

Algunas escuelas respondieron —de manera insensata, argumenté en su momento— con la prohibición de ChatGPT y herramientas similares. Pero esas limitaciones no funcionaron, en parte porque los alumnos podían utilizar las herramientas en su celular y computadoras en casa. Y, a medida que avanzaba el año escolar, muchos de los centros que restringían el uso de la inteligencia artificial generativa —como se le denomina a la categoría que incluye ChatGPT, Bing, Bard y otras herramientas— retiraron discretamente sus prohibiciones.

En vísperas de este curso escolar, he hablado con muchos profesores de primaria y secundaria, administradores escolares y miembros del profesorado universitario sobre su opinión acerca de la IA en la actualidad. Hay mucha confusión y pánico, pero también bastante curiosidad y entusiasmo. Sobre todo, los docentes quieren saber: ¿cómo podemos utilizar este material para ayudar a los alumnos a aprender, en lugar de para intentar atraparlos haciendo trampa?

Soy columnista de tecnología, no profesor, y no tengo todas las respuestas, especialmente en lo que se refiere a los efectos a largo plazo de la IA en la educación. Pero puedo ofrecer algunos consejos básicos a corto plazo para las escuelas que intentan averiguar cómo manejar la IA generativa este semestre.

En primer lugar, animo a los docentes —sobre todo en bachilleratos y universidades— a asumir que el cien por ciento de sus alumnos utilizan ChatGPT y otras herramientas de IA generativa en cada tarea, en cada asignatura, a menos que estén siendo supervisados dentro de un edificio escolar.

Eso no será completamente cierto en la mayoría de los centros. Algunos alumnos no utilizarán la IA porque tienen dudas éticas al respecto, porque no es útil para sus tareas en particular, porque no tienen acceso a las herramientas o porque tienen miedo de que los atrapen.

Sin embargo, la suposición de que todo el mundo utiliza la IA fuera de clase puede estar más cerca de la realidad de lo que muchos docentes creen. (”No tienes ni idea de lo mucho que usamos ChatGPT”, decía el título de un ensayo reciente de un estudiante de la Universidad de Columbia en la revista Chronicle of Higher Education). Y es un atajo útil para los profesores que intentan averiguar cómo adaptar sus métodos de enseñanza. ¿Por qué asignar un examen para llevar a casa o un escrito sobre Jane Eyre si todos en clase —excepto, quizá, los más estrictos cumplidores de las normas— utilizarán la IA para realizarlo? ¿Si supieras que ChatGPT es tan omnipresente como Instagram y Snapchat entre tus alumnos, por qué no habrías de cambiar a exámenes supervisados, ensayos de respuesta larga y trabajo en grupo en clase,?

En segundo lugar, las escuelas deberían dejar de apoyarse en los programas detectores de IA para atrapar a los tramposos. Hay decenas de estas herramientas en el mercado ahora, todas afirman que detectan la escritura generada con IA y ninguna de ellas funciona bien de forma confiable. Generan muchos falsos positivos y se dejan engañar fácilmente por técnicas como la paráfrasis. ¿No me crees? Pregúntale a OpenAI, el fabricante de ChatGPT, que este año ha suspendido su detector de escritura con IA por su “bajo índice de precisión”.

Es posible que en el futuro las empresas de IA puedan etiquetar los resultados de sus modelos para que sean más fáciles de detectar —una práctica conocida como “marca de agua”— o que surjan mejores herramientas de detección de IA. Pero, por ahora, la mayor parte del texto de IA debe considerarse indetectable y las escuelas deben invertir su tiempo (y sus presupuestos tecnológicos) en otra cosa.

Mi tercer consejo —-y el que podría causar que me lleguen muchos correos electrónicos de personas enojadas— es que los profesores se concentren menos en advertir a los alumnos de los defectos de la IA generativa que en averiguar qué hace bien esta tecnología.

El año pasado, muchos centros escolares intentaron asustar a los alumnos diciéndoles que herramientas como ChatGPT no eran confiables y que solían dar respuestas sin sentido y producir prosa genérica. Estas críticas, aunque ciertas para los primeros chatbots de IA, no lo son tanto para los modelos actualizados y los estudiantes inteligentes están descubriendo cómo obtener mejores resultados brindando a los modelos instrucciones más sofisticadas.

Como resultado, los estudiantes de muchas escuelas van por delante de sus instructores cuando se trata de entender lo que la IA generativa sí puede hacer, si se utiliza correctamente. Y las advertencias sobre sistemas de IA defectuosos lanzadas el año pasado pueden sonar huecas este año, ahora que GPT-4 es capaz de obtener notas aprobatorias en Harvard.

Alex Kotran, director ejecutivo del AI Education Project, una organización sin fines de lucro que ayuda a las escuelas a adoptar la IA, me dijo que los profesores necesitan pasar tiempo utilizando la IA generativa para apreciar lo útil que puede ser y lo rápido que está mejorando.

“Para la mayoría de la gente, ChatGPT sigue siendo un truco”, afirmó. “Si no se aprecia realmente lo profunda que es esta herramienta, no se van a dar todos los demás pasos que van a ser necesarios”.

Hay recursos para los educadores que quieran ponerse al día sobre la IA de prisa y corriendo. La organización de Kotran, al igual que la Sociedad Internacional para la Tecnología en la Educación, ofrece a los profesores una serie de planes de clase enfocados en la IA. Algunos profesores también han empezado a reunir recomendaciones para sus colegas, como un sitio web creado por educadores del Gettysburg College que ofrece consejos prácticos sobre IA generativa.

Sin embargo, en mi experiencia, no hay nada que sustituya la experiencia práctica. Por eso aconsejo a los profesores que empiecen a experimentar ellos mismos con ChatGPT y otras herramientas de IA generativa, con el objetivo de llegar a dominar la tecnología tanto como muchos de sus alumnos.

Mi último consejo para las escuelas que se sienten desconcertadas por la IA generativa es el siguiente: traten este año —el primer curso académico completo de la era pos-ChatGPT— como una experiencia de aprendizaje y no esperen hacerlo todo bien.

Hay muchas formas en las que la IA podría contribuir a remodelar las aulas. Ethan Mollick, profesor de la Escuela Wharton de la Universidad de Pensilvania, cree que la tecnología llevará a más profesores a adoptar un modelo de “clase invertida” (en el que los alumnos aprendan el material fuera de clase y lo practiquen en clase), que tiene la ventaja de ser más resistente a las trampas de la IA. Otros docentes con los que hablé afirmaron que estaban experimentando con la posibilidad de convertir la IA generativa en un colaborador en el aula o en una forma de que los estudiantes practiquen sus habilidades en casa con la ayuda de un tutor personalizado de IA.

Algunos de estos experimentos no funcionarán. Otros sí. No pasa nada. Todavía estamos adaptándonos a esta nueva y extraña tecnología que tenemos entre las manos y es de esperar que de vez en cuando haya algún tropiezo.

No obstante, los estudiantes necesitan orientación en lo que respecta a la IA generativa y las escuelas que la tratan como una moda pasajera —o un enemigo que vencer— perderán la oportunidad de ayudarlos.

“Muchas cosas se verán trastocadas”, aseguró Mollick. “Y por eso debemos decidir qué hacemos, en lugar de batirnos en retirada contra la IA”.

Kevin Roose es columnista de tecnología y autor de Futureproof: 9 Rules for Humans in the Age of Automation. Más sobre Kevin Roose.

viernes, 10 de enero de 2020

_- La segunda ola de la rendición de cuentas algorítmica

_- Durante la última década, la rendición de cuentas de los sistemas basados en el uso de algoritmos se ha convertido en una importante preocupación para los científicos sociales, informáticos, periodistas y abogados. Se han producido filtraciones que han dado lugar a debates vibrantes sobre la imposición de penas en base al uso de algoritmos. Los investigadores han expuesto casos de gigantes tecnológicos que muestran las mismas ofertas de trabajo con salarios más bajos a las mujeres, que discriminan a los ancianos, que implementan patrones oscuros y capciosos que engañan a los consumidores para que compren cosas, y que manipulan a los usuarios para que caigan en agujeros de contenido fanático. Aquellos legisladores comprometidos con la defensa de lo público han comenzado a trabajar en la transparencia algorítmica y en la justicia en la red, basándose en el trabajo de académicos del ámbito del Derecho, que reclaman un proceso tecnológico justo, neutralidad de las plataformas y principios de no-discriminación.

Esta labor política está surgiendo a medida que los expertos traducen la investigación académica y las demandas de los activistas en leyes y reglamentos. Los legisladores están proponiendo proyectos de ley que requieren estándares básicos de transparencia y de auditoría de los algoritmos. Estamos comenzando un largo camino para asegurar que los procesos de contratación y de cobertura financiera basados en el uso de inteligencia artificial (IA) no se utilicen si tienen un impacto discriminatorio en las comunidades históricamente vulnerables. Y así como esta “primera ola” de investigación y de activismo sobre la rendición de cuentas algorítmica ha apuntado a los sistemas existentes, una “segunda ola” emergente se ocupa de cuestiones más estructurales. Ambas olas serán esenciales para asegurar una economía política de la tecnología más justa y genuinamente emancipadora.

Aunque hubo un primer momento de enamoramiento por la evaluación computacional de las personas, muchos —incluyendo miembros del establishment corporativo y gubernamental— reconocen ahora que los datos pueden estar sesgados, o ser inexactos o inapropiados. Los académicos han establecido espacios institucionales como el evento anual “Fairness, Accountability, and Transparency in Machine Learning”, con el objetivo de que programadores, juristas y científicos sociales interactúen regularmente y puedan abordar preocupaciones relativas a la justicia social. Cuando las empresas y los gobiernos anuncian planes para utilizar IA, se presentan desafíos y se reclaman auditorías. En algunos casos esto da lugar a verdaderos cambios políticos. Por poner un ejemplo, el gobierno Liberal australiano ha revertido recientemente algunas políticas de “robodebt” (que consiste en el uso de programas informáticos automatizados para la recuperación de deudas) y, finalmente, ha tenido que echarse atrás ante la justificada indignación provocada.

Todos estos avances son el resultado de una “primera ola” (tomando prestada una periodización familiar en la historia del feminismo) de promoción e investigación acerca de la rendición de cuentas algorítmica. Estas son acciones vitales, y deben prolongarse indefinidamente —debe haber una constante vigilancia del uso de IA en los sistemas socio-técnicos, que son con demasiada frecuencia los legisladores no reconocidos de nuestro acceso diario a la información, al capital, e incluso a las citas amorosas—. Sin embargo, como han advertido Julia Powles y Helen Nissenbaum, no podemos detenernos en esta primera ola. Ellas plantean las siguientes preguntas:

¿Qué sistemas vale realmente la pena crear? ¿Cuáles son los problemas más urgentes a abordar? ¿Quién está mejor posicionado para crear estos sistemas? ¿Y quién toma la decisión de hacerlo? Necesitamos auténticos mecanismos de rendición de cuentas, ajenos a las empresas y accesibles para los ciudadanos. Cualquier sistema de IA que se integre en la vida de las personas debe ser objeto de contestación, de rendición de cuentas y de reparación ante los ciudadanos y los representantes del interés público.

Mientras que la primera ola de rendición de cuentas algorítmica se centra en la mejora de los sistemas existentes, una segunda ola de investigación cuestiona si estos deben ser utilizados —y, en caso afirmativo, quién debe gobernarlos—.

Por ejemplo, en lo que respecta al reconocimiento facial, los investigadores de la primera ola han demostrado que muchos sistemas no están preparados para identificar correctamente los rostros de las minorías. Estos investigadores se centran en hacer que el reconocimiento facial sea más inclusivo, asegurándose de que tenga el mismo índice de éxito para las minorías que para las mayorías. Sin embargo, investigadores y defensores de la segunda ola se han preguntado lo siguiente: ¿Si estos sistemas se utilizan a menudo para la opresión o la estratificación social, debe ser la inclusión el objetivo? ¿No es mejor prohibirlos, o al menos asegurar que sólo se autoricen para usos socialmente productivos?

Las preocupaciones de la segunda ola son todavía más profundas en relación al uso de la IA para la “clasificación facial”, que ha sido promovida como un mecanismo capaz (o inminentemente capaz) de reconocer la orientación sexual, las tendencias criminales y el riesgo de mortalidad a partir de imágenes de rostros.

No basta con que la comunidad investigadora recopile los porqués de “la inferencia facial de las tendencias criminales”. Cuando esta inferencia se realiza a partir de un conjunto de datos pequeño o sesgado, es poco probable que proporcione pistas contundentes sobre quién tiene más probabilidades de cometer un delito. En todo caso, deberíamos cuestionarnos también si este tipo de investigación debe o no tener cabida en nuestra sociedad.

Debemos esperar que esta diferenciación entre las preocupaciones de la primera y la segunda ola nos ponga al corriente también de las discusiones sobre la aplicación de la IA y de la robótica en el campo de la medicina. Para algunos investigadores que están desarrollando aplicaciones de salud mental, por ejemplo, las preocupaciones de la primera ola de rendición de cuentas algorítmica se centrarán en si un corpus lingüístico de estímulos y respuestas se adapta adecuadamente a diversas comunidades con distintos acentos y formas de auto-presentarse.

Los críticos de la segunda pueden introducir un enfoque más jurídico y económico-político que cuestione si dichas aplicaciones están alterando prematuramente los mercados (y la profesión) de atención a la salud mental. El objetivo entonces sería acelerar la sustitución de software barato (si es limitado) por profesionales expertos y empáticos, lo cual requiere una mayor inversión. Estas cuestiones laborales son ya un asunto básico en la regulación de las plataformas sociales. Predigo, en este caso, que se extenderán a muchas áreas de la investigación sobre la rendición de cuentas de los algoritmos, a medida que los críticos exploren quién se está beneficiando (y quién está asumiendo la responsabilidad) de la recopilación, el análisis y el uso de los datos.

Por último (en lo que respecta a este post), podemos apreciar una división en la regulación financiera. Las voces del establishment han aclamado la tecnología financiera (fintech) como una forma revolucionaria de incluir a más individuos en el sistema financiero. Dados los sesgos en la valoración crediticia realizada en base a datos “marginales” o “alternativos” (como el uso de los medios sociales), las clases dirigentes se sienten relativamente cómodas con algunas intervenciones “anti-sesgo” básicas.

Pero también deberíamos hacernos preguntas más amplias sobre cuándo la “inclusión financiera” puede ser depredadora o alarmante (como la vigilancia 24/7), o generar subordinaciones de poder interesadas (como en el caso de una aplicación india de fintech, que reduce la “puntuación” de personas implicadas en actividades políticas). ¿Qué sucede cuando la tecnología financiera permite una forma de “deuda perpetua”? Kevin P. Donovan y Emma Park han estudiado este problema en Kenia:

A pesar de ser pequeños, los préstamos tienen un coste elevado, a veces de hasta el 100% anualizado. Como nos dijo un nairobiano, estas aplicaciones “te dan dinero poco a poco, y luego van a por tu cuello”. No es el único que valora así el “fintech”, la industria de la tecnología financiera en expansión que proporciona préstamos a través de aplicaciones móviles. Durante nuestra investigación, estos regímenes de endeudamiento emergentes han sido calificados como “catastróficos”, una “crisis” y un gran “problema social”. Los periódicos informan de que las aplicaciones móviles de préstamos son la base de una ola de desorden doméstico, violencia e incluso suicidios.

Como ha argumentado Abbye Atkinson, debemos reconsiderar cuál es el ámbito de aplicación adecuado del “crédito como prestación social”. A veces solo aporta el cruel optimismo de un espejismo de Horatio Alger (o, peor aún, la crueldad optimista que caracteriza la psico-política del capitalismo tardío). Así como las razones económicas pueden ser racionalizadas, el entusiasmo por la cobertura financiera “basada en la inteligencia artificial” tiende a ocultar las dinámicas problemáticas de las finanzas. De hecho, si no se ponen en tela de juicio, la economía convencional y la IA podrían conferir una pátina de legitimidad a ciertos sistemas sociales quebrantados.

En la actualidad, la primera y la segunda olas de responsabilidad algorítmica son en gran medida complementarias. La primera ola ha identificado y corregido problemas claros en la IA y ha aumentado la conciencia pública de sus sesgos y sus límites. La segunda ola ha ayudado a ralentizar el despliegue de la IA y la robótica lo suficiente como para que la primera ola tenga más tiempo y espacio para desplegar reformas constructivas. Es muy posible que en el futuro se produzcan enfrentamientos entre los que quieren reparar, y los que están abiertos a poner fin o limitar la evaluación computacional de las personas. Por ejemplo: los que se comprometen a reducir los índices de error de los sistemas de reconocimiento facial para las minorías pueden querer añadir más rostros de minorías a esas bases de datos, mientras que los que encuentran opresivo el reconocimiento facial se resistirán a esa “reforma”, al considerarla una forma más de inclusión depredadora. Pero, por ahora, considero que ambas olas comparten un objetivo común: hacer que los sistemas socio-técnicos sean más sensibles a las comunidades vulnerables.

Frank Pasquale es profesor de derecho en la Facultad de Derecho Francis King Carey de la Universidad de Maryland.

Fuente:
https://lpeblog.org/2019/11/25/the-second-wave-of-algorithmic-accountability/#more-3051 Traducción:Sara Suárez Gonzalo

martes, 28 de agosto de 2018

“Hay una gran presión económica para hacer obsoletos a los humanos”. En su libro 'Vida 3.0', el profesor del MIT propone argumentos para un debate global que evite que la llegada de la Inteligencia Artificial acabe en desastre.

Cuando el rey Midas le pidió a Dionisio transformar en oro todo lo que tocase cometió un fallo de programación. No pensaba que el dios sería tan literal al concederle el deseo y solo fue consciente de su error cuando vio a su hija convertida en una estatua metálica. Max Tegmark (Estocolmo, 1967) cree que la inteligencia artificial puede presentar riesgos y oportunidades similares para la humanidad.

El profesor del MIT y director del Future of Life Institute en Cambridge (EE UU) estima que la llegada de una Inteligencia Artificial General (IAG) que supere a la humana es cuestión de décadas. En su visión del futuro, podríamos acabar viviendo en una civilización idílica donde robots superinteligentes harían nuestro trabajo, crearían curas para todas nuestras enfermedades o diseñasen sistemas para ordeñar la energía descomunal de los agujeros negros. Sin embargo, si no somos capaces de transmitirle nuestros objetivos con precisión, también es posible que a esa nueva inteligencia dominante no le interese nuestra supervivencia o, incluso, que asuma un objetivo absurdo como transformar en clips metálicos todos los átomos del universo, los que conforman nuestros cuerpos incluidos.

Para evitar el apocalipsis, Tegmark considera que la comunidad global debe implicarse en un debate para orientar el desarrollo de la inteligencia artificial en nuestro beneficio. Esta discusión deberá afrontar problemas concretos, como la gestión de las desigualdades generadas por la automatización del trabajo, pero también un intenso esfuerzo filosófico que triunfe donde llevamos siglos fracasando y permita definir y acordar qué es bueno para toda la humanidad para después inculcárselo a las máquinas.

Estos y otros temas relacionados con la discusión que Tegmark considera más importante para el futuro de la humanidad son los que recoge en su libro Vida 3.0: ser humano en la era de la inteligencia artificial, un ambicioso ensayo que han recomendado gurús como Elon Musk en el que el cosmólogo sueco trata de adelantarse a lo que puede suceder durante los próximos milenios.

Pregunta. Los humanos, en particular durante los últimos dos o tres siglos, hemos tenido mucho éxito comprendiendo el mundo físico, gracias al avance de disciplinas como la física o la química, pero no parece que hayamos sido tan eficaces entendiéndonos a nosotros mismos, averiguando cómo ser felices o llegando a acuerdos sobre cómo hacer un mundo mejor para todo el mundo. ¿Cómo vamos a dirigir los objetivos de la IAG sin alcanzar antes acuerdos sobre estos asuntos?

Respuesta. Creo que nuestro futuro puede ser muy interesante si ganamos la carrera entre el poder creciente de la tecnología y la sabiduría con la que se gestiona esa tecnología. Para conseguirlo, tenemos que cambiar estrategias. Nuestra estrategia habitual consistía en aprender de nuestros errores. Inventamos el fuego, la fastidiamos unas cuantas veces y después inventamos el extintor; inventamos el coche, la volvimos a fastidiar varias veces e inventamos el cinturón de seguridad y el airbag. Pero con una tecnología tan potente como las armas atómicas o la inteligencia artificial sobrehumana no vamos a poder aprender de nuestros errores. Tenemos que ser proactivos.

Es muy importante que no dejemos las discusiones sobre el futuro de la IA a un grupo de frikis de la tecnología como yo sino que incluyamos a psicólogos, sociólogos o economistas para que participen en la conversación. Porque si el objetivo es la felicidad humana, tenemos que estudiar qué significa ser feliz. Si no hacemos eso, las decisiones sobre el futuro de la humanidad las tomarán unos cuantos frikis de la tecnología, algunas compañías tecnológicas o algunos Gobiernos, que no van a ser necesariamente los mejor cualificados para tomar estas decisiones para toda la humanidad.

P. ¿La ideología o la forma de ver el mundo de las personas que desarrollen la inteligencia artificial general definirá el comportamiento de esa inteligencia?
R. Muchos de los líderes tecnológicos que están construyendo la IA son muy idealistas. Quieren que esto sea algo bueno para toda la humanidad. Pero si se mira a las motivaciones de las compañías que están desarrollando la IA, la principal es ganar dinero. Siempre harás más dinero si reemplazas humanos por máquinas que puedan hacer los mismos productos más baratos. No haces más dinero diseñando una IA que es más bondadosa. Hay una gran presión económica para hacer que los humanos sean obsoletos.

La segunda gran motivación entre los científicos es la curiosidad. Queremos ver cómo se puede hacer una inteligencia artificial por ver cómo funciona, a veces sin pensar demasiado en las consecuencias. Logramos construir armas atómicas porque había gente con curiosidad por saber cómo funcionaban los núcleos atómicos. Y después de inventarlo, muchos de aquellos científicos desearon no haberlo hecho, pero ya era demasiado tarde, porque para entonces ya había otros intereses controlando ese conocimiento.

P. En el libro parece que da por hecho que la IA facilitará la eliminación de la pobreza y el sufrimiento. Con la tecnología y las condiciones económicas actuales, ya tenemos la posibilidad de evitar una gran cantidad de sufrimiento, pero no lo hacemos porque no nos interesa lo suficiente o no le interesa a la gente con el poder necesario para conseguirlo. ¿Cómo podemos evitar que eso suceda cuando tengamos los beneficios de la inteligencia artificial?
R. En primer lugar, la tecnología misma puede ser muy útil de muchas maneras. Cada año hay mucha gente que muere en accidentes de tráfico que probablemente no morirían si fuesen en coches autónomos. Y hay más gente en América, diez veces más, que mueren en accidentes hospitalarios. Muchos de esos se podrían salvar con IA si se utilizase para diagnosticar mejor o crear mejores medicinas. Todos los problemas que no hemos sido capaces de resolver debido a nuestra limitada inteligencia es algo que podría resolver la IA. Pero eso no es suficiente. Como dice, ahora mismo tenemos muchos problemas que sabemos exactamente cómo resolver, como el hecho de que haya niños que vivan en países ricos y no estén bien alimentados. No es un problema tecnológico, es un problema de falta de voluntad política. Esto muestra lo importante de que la gente participe en esta discusión y seleccionemos las prioridades correctas.

Por ejemplo, en España, el Gobierno español ha rechazado unirse a Austria y muchos otros países en la ONU en un intento para prohibir las armas letales autónomas. España apoyó la prohibición de armas biológicas, algo que apoyaban los científicos de esa área, pero no han hecho lo mismo para apoyar a los expertos en IA. Esto es algo que la gente puede hacer: Animar a sus políticos para que afronten estos asuntos y nos aseguremos de que dirigimos la tecnología en la dirección adecuada.

P. La conversación que propone en Vida 3.0 sobre la Inteligencia Artificial en el fondo es muy parecida a la que se debería tener sobre política en general, sobre cómo convivimos entre nosotros o como compartimos los recursos. ¿Cómo crees que el cambio en la situación tecnológica va a cambiar el debate público?
R. Creo que va a hacer las cosas más drásticas. Los cambios producidos por la ciencia se están acelerando, todo tipo de trabajos desaparecerán cada vez más rápido. Muchos se ríen de la gente que votó a Trump o a favor del Brexit, pero su rabia es muy real y los economistas te dirán que las razones por las que esta gente está enfadada, por ser más pobres de lo que eran sus padres, son reales. Y mientras no se haga nada para resolver estos problemas reales, su enfado aumentará.

La Inteligencia Artificial puede crear una cantidad enorme de nueva riqueza, no se trata de un juego de suma cero. Si nos convencemos de que va a haber suficientes impuestos para proporcionar servicios sociales y unos ingresos básicos, todo el mundo estará feliz en lugar de enfadado. Hay gente a favor de la Renta Básica Universal, pero es posible que haya mejores formas de resolver el problema. Si los gobiernos van a dar dinero a la gente solo para apoyarles, también se lo puede dar para que la gente trabaje como enfermeros o como profesoras, el tipo de trabajos que se sabe que dan un propósito a la vida de la gente, conexiones sociales...

No podemos volver a los criterios de distribución del Egipto de los faraones, en los que todo estaba en manos de un puñado de individuos, pero si una sola compañía puede desarrollar una inteligencia artificial general, es solo cuestión de tiempo que esa compañía posea casi todo. Si la gente que acumule este poder no quiere compartirlo el futuro será complicado.

P. Si no hacemos nada, ¿cuál serían las principales amenazas provocadas por el desarrollo de la IA?
R. En los próximos tres años comenzaremos una nueva carrera armamentística con armas letales autónomas. Se producirán de forma masiva por los superpoderes y en poco tiempo organizaciones como ISIS podrán tenerlas. Serán los AK-47 del futuro salvo que en este caso son máquinas perfectas para perpetrar asesinatos anónimos. En diez años, si no hacemos nada, vamos a ver más desigualdad económica. Y por último, hay mucha polémica sobre el tiempo necesario para crear una inteligencia artificial general, pero más de la mitad de los investigadores en IA creen que sucederá en décadas. En 40 años nos arriesgamos a perder completamente el control del planeta a manos de un pequeño grupo de gente que desarrolle la IA. Ese es el escenario catastrófico. Para evitarlo necesitamos que la gente se una a la conversación.

https://elpais.com/elpais/2018/08/07/ciencia/1533664021_662128.html

“La gente, estadísticamente, está mejor, pero hay una tremenda cantidad de sufrimiento individual”
“Los expertos se equivocan sistemáticamente”

sábado, 14 de abril de 2018

El empleo no peligra; tu sueldo sí. Un informe concluye que la automatización no reduce el número total de trabajos, pero sí los salarios. La revolución de los algoritmos acelerará aún más los cambios

Van a acabar los robots, los superordenadores y los algoritmos con el trabajo? ¿Estamos a punto de entrar en un mundo postindustrial en el que el empleo será una rara avisa la que solo tendrán acceso un grupo de privilegiados? Son estas preguntas cada vez más habituales a la vista de la revolución tecnológica que amenaza con sustituir a las personas por máquinas. Pero, en contra de la muy extendida idea de que la era del empleo está llegando a su fin, un estudio reciente concluye que la automatización no reduce el número de puestos de trabajo. Más bien al contrario, ayuda a que aumente. El problema es que la creciente tecnificación también contribuye a la depauperación de la clase media.

En el artículo con el sugerente título Robocalypse now. ¿Supone la mayor productividad una amenaza para el empleo?, David Autor, del Instituto Tecnológico de Massachusetts (el famoso MIT) y Anna Salomons, de la Universidad de Utrecht, analizan lo ocurrido en 19 países en los últimos 35 años. Aunque el texto se refiere solo al pasado, los autores creen que sus conclusiones son válidas también para el futuro inmediato.

El empleo no peligra; tu sueldo sí


No hay ninguna razón que nos haga pensar que esta tendencia va a cambiar en los próximos años. La nueva revolución tecnológica no va a impedir la creación de nuevos empleos. Y va a seguir situando la desigualdad como uno de los grandes retos de la sociedad”, asegura Salomons, una de las autoras, desde Boston en una conversación vía Skype.

Esta profesora responsable del seminario de Empleo y Desigualdad en la Universidad de Utrecht cree que uno de los principales hallazgos de su trabajo es desmontar el mito de una sociedad con desempleo masivo, un temor que le parece “infundado”. “Esto es algo que muchos economistas ya intuían, pero nosotros lo hemos demostrado con datos”, añade.

Los autores no niegan el fuerte impacto del progreso en el empleo y admiten que los aumentos de productividad fruto de los avances tecnológicos sí ayudan a destruir empleo en determinados sectores: básicamente, aquellos a los que la automatización afecta directamente. Pero, aunque en estas industrias se produzcan pérdidas netas de trabajos, los ahorros económicos frutos de la mayor productividad facilitan la creación de puestos en otros sectores. Esta recolocación, sin embargo, suele ser con sueldos más bajos.

Así, los autores calculan que si en 1970 las rentas laborales suponían un 66,2% de la tarta de los ingresos totales; en 2007 este porcentaje había disminuido al 62,7%. El proceso de pérdida de riqueza de los trabajadores continúa a marchas forzadas; y además se agravó a partir de este siglo.

Esteban Moro, profesor de Matemáticas en la Carlos III de Madrid y en el MediaLab del MIT, insiste en diferenciar la tecnificación de las últimas décadas, protagonizada por los robots, con la actual segunda oleada de automatización, basada en algoritmos e inteligencia artificial. “Esta revolución es muchísimo más rápida. Y no tiene por qué tener los mismos efectos sobre el empleo y los salarios que la anterior. El riesgo es que los cambios sean de tal velocidad que no dé tiempo al mercado laboral a adaptarse para formar trabajadores con las capacidades necesarias”, explica.

Pero lo que sí tiene todos los visos de continuar es lo que Moro define como “vaciamiento de las clases medidas”, un proceso de polarización en el que una gran mayoría de trabajadores se ven abocados a salarios cada vez más bajos; y una minoría de mano de obra superespecializada con habilidades adaptadas a los nuevos tiempos que aspira a una porción creciente de las rentas.

Este investigador español forma parte del grupo creado por el MIT para analizar el futuro del trabajo, donde expertos de distintos ámbitos estudian el efecto que la última revolución tecnológica tendrá en aspectos como los movimientos migratorios entre zonas con industrias en declive —zonas eminentemente rurales o con industrias tradicionales— y florecientes ciudades como San Francisco, con oferta de trabajo adaptada a las nuevas necesidades.

Dos líneas de pensamiento
En los últimos años han surgido dos líneas de pensamiento entre los investigadores en tecnología y empleo. Los primeros defienden la llegada de una especie de Armagedón laboral, una sociedad que será incapaz de emplear a amplísimas capas de la población. De ahí surgen iniciativas como la renta básica universal, la idea de que, ya que la mayoría de personas va a estar desempleada, el Estado debe asegurarse de que tengan lo necesario para llevar una vida digna. Y la necesidad de que los nuevos instrumentos de la mecanización incorporen parte de las cargas que lastran la contratación de personas, con medidas como los impuestos a los robots.

La segunda idea-fuerza es la de que es imposible predecir qué pasará en el futuro, pero que así como los cajeros automáticos no acabaron con las oficinas bancarias; los avances tecnológicos harán que algunos empleos desaparezcan o se reduzcan al mínimo, pero se crearán otros que ahora es imposible siquiera imaginar. Y el saldo final puede incluso ser positivo. Es en este bando del debate en el que se sitúa el trabajo de los profesores Autor y Salomons.

Carl Benedkit Frey, codirector del Programa de Tecnología y Empleo de la Martin School de Oxford y una de las personas que más saben en el mundo sobre este asunto, opta también por la segunda opción. “El principal riesgo de la tecnificación no es el desempleo masivo, sino el empobrecimiento de las clases medias, tendencia que ya empezó hace tiempo y que puede continuar en los próximos años”, concluye.

LOS PERDEDORES DEL GRAN SALTO TECNOLÓGICO
Puestos como los de ascensoristas o lavadores de coches han desaparecido prácticamente por completo del paisaje de las ciudades. Al tiempo que estos se desvanecían, surgían otros que hasta hace poco nadie se imaginaba. Así, expertos como Carl Benedikt Frey, de la Martin School de Oxford, creen que el proceso volverá a repetirse una vez más en la revolución que estamos viviendo.

“Pese a que no crea que vaya a haber un desempleo masivo a largo plazo, no hay duda de que algunos trabajadores sí se han visto perjudicados por el avance de la tecnología”, explica. Frey se fija especialmente en las ciudades manufactureras de EE UU que han asistido a un empeoramiento de las condiciones sociales, con crecientes tasas de mortalidad entre hombres adultos y dificultades cada vez mayores para la movilidad social. “La mayor preocupación ahora son esas capas de población que sufren una peor situación por culpa del progreso de estos años. Son los perdedores de la automatización”, añade.

El español Esteban Moro cree que el nuevo mundo de los algoritmos dañará sobre todo a aquellas profesiones basadas en tareas repetitivas que las máquinas pueden hacer casi al instante. Pero también podrán resolver labores cada vez más complicadas como traducciones, lecturas de textos jurídicos o de imágenes médicas. “La gran pregunta es qué pasará con esas habilidades que los humanos han aprendido tras invertir mucho tiempo y esfuerzo”, asegura el profesor en el MediaLab del MIT.

https://elpais.com/economia/2018/03/31/actualidad/1522517546_838136.html?rel=lom