Ver traducción automática
Esta es una traducción automática. Para ver el texto original en inglés haga clic aquí
#Novedades de la industria
{{{sourceTextContent.title}}}
AI, la ley, y nuestro futuro
{{{sourceTextContent.subTitle}}}
Los científicos y los responsables políticos convergieron en el MIT el martes para discutir uno de los problemas más duros en inteligencia artificial: Cómo gobernarla.
{{{sourceTextContent.description}}}
El primer congreso de la política del MIT AI ofreció siete discusiones del panel que extendían a través de una variedad de usos del AI, y 25 altavoces — incluyendo dos jefes de personal anteriores de la Casa Blanca, secretarios del consejo de ministros anteriores, jefes de la seguridad de patria y de la política en materia de defensa, líderes de la industria y de la sociedad civil, e investigadores destacados.
Su foco compartido: cómo aprovechar las oportunidades que el AI está creando — a través de áreas incluyendo el transporte y seguridad, medicina, trabajo, justicia penal, y seguridad nacional — mientras que vigoroso enfrenta desafíos, incluyendo el potencial para el prejuicio social, la necesidad de la transparencia, y los misteps que podrían atascar la innovación del AI mientras que exacerbaban problemas sociales en los Estados Unidos y en todo el mundo.
“Cuando se trata del AI en áreas de la confianza pública, la era de mudanza rápidamente y de romper todo ha terminado,” dijo R. David Edelman, director del proyecto sobre tecnología, la economía, y la seguridad nacional (DIEZ) en la iniciativa de la investigación de la política de Internet del MIT (IPRI), y un ayudante especial anterior al presidente para la política económica y de la tecnología en la Casa Blanca de Obama.
Edelman añadido: “Hay simplemente demasiado en juego para todos nosotros para no tener una opinión.”
Daniel Weitzner, el director de fundación de IPRI y un científico principal de la investigación en el laboratorio de la inteligencia de informática y artificial del MIT (CSAIL), dijeron que un objetivo dominante del diálogo era ayudar a analistas de la política a sentirse confiados sobre su capacidad de formar activamente los efectos del AI sobre sociedad.
“Espero que los responsables políticos vengan lejos con un sentido claro que la tecnología del AI no sea un cierto objeto inmueble, pero bastante que la interacción correcta entre de informática, el gobierno, y la sociedad en general ayudará a formar el desarrollo de la nueva tecnología para dirigir las necesidades de la sociedad,” Weitzner dijo al final del acontecimiento.
IPRI, junto a una reunión de dos días de la Organización para la Cooperación y el Desarrollo Económico (la OCDE) organizó al congreso de la política del MIT AI, la asociación intergubernamental con base en paris, que está desarrollando las recomendaciones de política del AI para 35 países en todo el mundo. Como parte del acontecimiento, los expertos de la OCDE participaron en un de medio día, sesión de formación práctica en el aprendizaje de máquina, pues entrenaron y probaron a una red neuronal bajo la orientación de Hal Abelson, a la clase del profesor 1922 de informática y a la ingeniería en el MIT.
El foro de martes también comenzó con una cartilla en el estado plus ultra en el AI de Antonio Torralba, de un profesor en CSAIL y el departamento de ingeniería eléctrica y de un de informática (EECS), y director de la búsqueda del MIT para la inteligencia. Observando que “hay tan muchas cosas que entran encendido” en el AI, Torralba quipped: “Es muy difícil conocer cuáles es el futuro, pero es incluso más duro conocer cuáles es el presente.”
Un nuevo “compromiso para abordar problemas éticos”
El acontecimiento de martes, coacogido por el IPRI y la búsqueda del MIT para la inteligencia, fue llevado a cabo en un momento en que el AI está recibiendo una cantidad significativa de atención de los medios — y un nivel sin precedente de inversión financiera y de ayuda institucional.
Para su parte, el MIT anunció en octubre de 2018 que fundaba el MIT Stephen A. Schwarzman College de la computación, apoyado por un regalo $350 millones de Stephen Schwarzman, que servirá como nexo interdisciplinario de la investigación y de la educación en de informática, ciencia de los datos, AI, y los campos relacionados. La universidad también abordará la política y problemas éticos referente la computación.
“Aquí en el MIT, estamos en un momento único con el lanzamiento inminente de la nueva universidad del MIT Schwarzman de la computación,” Weitzner observamos. “El compromiso para abordar la política y problemas éticos en resultado computacional de la voluntad en la nueva investigación del AI, y el plan de estudios para entrenar a estudiantes para desarrollar nueva tecnología para cubrir las necesidades de la sociedad.”
Otras instituciones están llegando a un compromiso ampliado al AI también — incluyendo la OCDE.
Las “cosas se están desarrollando muy rápidamente,” dijo a Andrew Wyckoff, director para la ciencia, la tecnología, y la innovación en la OCDE. “Necesitamos comenzar a intentar conseguir delante de eso.”
Wyckoff añadió que el AI era una prioridad de la política del “top tres” para la OCDE en 2019-2020, y dijo que la organización formaba un “observatorio de la política” para producir evaluaciones realistas del impacto del AI, incluyendo la aplicación la automatización que substituía trabajos.
“Hay mucho miedo ahí fuera sobre [los trabajadores] el desplazamiento,” dijo a Wyckoff. “Necesitamos mirar esto y ver cuál es realidad, contra cuál es el miedo.”
Una cantidad no despreciable de esa idea proviene más de miedo que la realidad, dijo a Erik Brynjolfsson, director de la iniciativa del MIT en la economía de Digitaces y profesor en el MIT Sloan School de la gestión, durante una discusión del panel sobre la fabricación y el trabajo.
Comparado a la gama de habilidades necesarias en la mayoría de los trabajos, “qué aprendizaje de máquina puede hacer es hoy mucho más estrecho,” Brynjolfsson dijo. “Pienso que ése va a ser el status quo para un cierto número de años.”
Brynjolfsson observó que su propia investigación sobre el tema, evaluando la gama completa de las tareas específicas usadas en una amplia variedad de trabajos, muestra que la automatización tiende a substituir algún pero no todas esas tareas.
“En no solo de esos empleos trabaje a máquina el aprendizaje funcionar con la tabla” de tareas, Brynjolfsson dijo. “Usted apenas no va a poder enchufar una máquina muy a menudo.” Sin embargo, él observó, el hecho que los ordenadores pueden usurpar ciertas tareas significan que la “reinvención y el reajuste” serán necesarios para muchos trabajos. No obstante, como Brynjolfsson acentuó, “ese proceso va a jugar hacia fuera durante años, si no décadas.”
Un paisaje variado de la política
Una idea importante subrayó en el acontecimiento es que la formulación de normas del AI podría revelar muy diferentemente de industria a la industria. Para los vehículos autónomos — quizás el uso ancho-importunado del AI — Los estados de los E.E.U.U. tienen poder regulador significativo, y las leyes podrían variar grandemente a través de líneas de estado.
En una discusión del panel sobre el AI y transporte, Daniela Rus, el Andrew y Erna Viterbi Professor de la ingeniería eléctrica y el de informática y el director de CSAIL, comentaron que ella ve el transporte “como una de las blancos principales y una de las cuestiones principales de adopción para las tecnologías del AI en el actual y futuro próximo.”
Rus sugirió que el uso de vehículos autónomos en algunos ambientes de poca velocidad, menos-complejos pudiera ser posible en el plazo de cinco años o así pues, pero ella también hizo claramente que los vehículos autónomos se van menos bien en situaciones más complicadas, más de alta velocidad, y lucha en mún tiempo.
En parte por esas razones, muchos vehículos autónomos figuran para ofrecer los sistemas donde los conductores pueden asumir el control los controles. Pero como Rus observó, que “depende de la capacidad de la gente de asumir el control instantáneamente,” mientras que los estudios están mostrando actualmente que tarda a conductores cerca de nueve segundos para asumir el control de sus vehículos.
La discusión del panel del transporte también tocada en el uso del AI en sistemas náuticos y aéreos. En este último caso, “usted no puede mirar en los ojos de su copiloto del AI y juzgar su confianza,” dijo a John-Paul Clarke, el vicepresidente de tecnologías estratégicas en United Technologies, con respecto a la dinámica compleja de interfaces persona-máquina.
En otras industrias, los desafíos fundamentales del AI implican el acceso a datos, a un punto acentuado por Torralba y Regina Barzilay, a un profesor del MIT en CSAIL y EECS. Durante un panel en atención sanitaria, Barzilay presentó en un aspecto de su investigación, que utiliza el aprendizaje de máquina analizar los resultados del mamograma para una mejor detección temprana de cáncer. En la opinión de Barzilay, los desafíos técnicos dominantes en su trabajo que se podría dirigir por la política del AI incluyen el acceso a más datos y a la prueba a través de poblaciones — que puede ayudar a refinar las herramientas automatizadas de la detección.
La materia del cómo mejor crear el acceso a los datos pacientes, sin embargo, llevó a algunos intercambios subsiguientes animados. Tom Price, secretario de sanidad y asuntos sociales anterior en la administración del triunfo, sugirió que los “datos de-identificados sean absolutamente la llave” para fomentar progreso, mientras que algunos investigadores del MIT en el sudience sugirieron que sea virtualmente imposible crear datos pacientes totalmente anónimos.
Jason Furman, un profesor de la práctica de la política económica en la Harvard Kennedy School y una presidencia anterior del Consejo de Asesores Económicos en la Casa Blanca de Obama, dirigieron la preocupación que los aseguradores negarían cobertura a la gente basada en las predicciones AI-generadas sobre las cuales la gente desarrollaría muy probablemente enfermedades más adelante en vida. Furman sugirió que la mejor solución para esto mienta fuera del ámbito del AI: previniendo la negación del cuidado basada en condiciones preexistentes, un elemento del acto asequible del cuidado.
Pero total, Furman añadió, “el problema real con inteligencia artificial es nosotros no tiene bastante de ella.”
Para su parte, Weitzner sugirió que, en lugar de datos médicos perfectamente anónimos, “estuviéramos de acuerdo con cuáles son las aplicaciones permitidas y las aplicaciones impermissible” de datos, desde “la manera correcta de permitir la innovación y tomar aislamiento seriamente es tomar responsabilidad seriamente.”
Responsabilidad pública
De hecho, la responsabilidad de organizaciones constituyó otra piedra de toque de las discusiones de martes, especialmente en un panel en la aplicación de ley y el AI.
El “gobierno que las entidades necesitan ser transparentes sobre lo que están haciendo en cuanto al AI,” dijo el conferenciante de Jim Baker, de Harvard Law School y el Director Jurídico anterior del F.B.I. “Pienso que es obvio.”
Carol Rose, director ejecutivo del capítulo de Massachusetts de la unión americana de las libertades civiles, advirtió contra el abuso de las herramientas del AI en la aplicación de ley
“Pienso que el AI tiene enorme promesa, pero depende realmente si el trabajo de los científicos de los datos y de la aplicación de ley junto,” Rose dijo, sugiriendo que una determinada cantidad de “ciencia basura” hubiera hecho ya su manera en las herramientas que eran comercializadas a los agentes policiales. Rose también citó a Joy Buolamwini de MIT Media Lab como líder en la evaluación de tales herramientas del AI; Buolamwini fundó la liga de justicia algorítmica, grupo que escudriñaba el uso de las tecnologías faciales del reconocimiento.
“Me preocupo a veces nos tengo un martillo del AI que busca un clavo,” Rose dijo.
Todo dicho, como Edelman observó en comentarios finales, el mundo de la política consiste en “cuerpos de la ley muy diversos,” y los responsables políticos necesitarán preguntarse en qué medida las regulaciones generales son significativas, o si los asuntos políticos del AI se abordan mejor de maneras más específicas — si en medicina, justicia penal, o el transporte.
“Nuestra meta es considerar la interconexión entre estos campos… pero como lo hacemos, nos dejó también preguntarnos si ‘el gobierno del AI’ es el marco correcto en absoluto — puede ser que apenas sea que en un futuro próximo, todos los tratos del gobierno con los problemas del AI, de un modo u otro,” Edelman dijo.
Weitzner concluyó la conferencia con una llamada para que los gobiernos continúen el compromiso con las comunidades técnicas de la inteligencia de informática y artificial. “Las tecnologías que están formando el futuro del mundo se están desarrollando hoy. Tenemos la oportunidad de estar seguros que responden a las necesidades de la sociedad si continuamos este diálogo como manera de informar diseño técnico y la investigación cruz-disciplinaria.”