Ir al contenido principal

Las universidades se apresuran a desarrollar cursos de ética en informática

Laura Norén, que imparte un curso de ética en ciencia de datos en la Universidad de Nueva York, dijo: "Se puede parchear el software, pero no se puede parchear a una persona si, ya sabes, daña la reputación de alguien". CréditoSam Hodgson para The New York Veces

PALO ALTO, Calif. - La profesión médica tiene una ética: Primero, no hacer daño.
Silicon Valley tiene un ethos: constrúyalo primero y pida perdón más tarde .
Ahora, a raíz de las noticias falsas y otros problemas en las compañías de tecnología, las universidades que ayudaron a producir algunos de los mejores tecnólogos de Silicon Valley están presionando para traer una moral más similar a la medicina a la informática.
Este semestre, la Universidad de Harvard y el Instituto de Tecnología de Massachusetts ofrecen conjuntamente un nuevo curso sobre la ética y la regulación de la inteligencia artificial. La Universidad de Texas en Austin acaba de presentar un curso titulado " Fundamentos éticos de la informática ", con la idea de eventualmente requerirlo para todos los estudiantes de ciencias de la computación.
Y en la Universidad de Stanford, el corazón académico de la industria, tres profesores y un investigador están desarrollando un curso de ética informática para el próximo año. Esperan que varios cientos de estudiantes se inscriban.
La idea es capacitar a la próxima generación de tecnólogos y formuladores de políticas para que consideren las ramificaciones de las innovaciones, como las armas autónomas o los autos sin conductor, antes de que esos productos salgan a la venta.

"Se trata de encontrar o identificar problemas que sabemos que en los próximos dos, tres, cinco, 10 años, los estudiantes que se gradúen de aquí van a tener que lidiar", dijo Mehran Sahami , un popular profesor de informática en Stanford, que es ayudando a desarrollar el curso Es famoso en el campus por llevar a Mark Zuckerberg a clase .
"La tecnología no es neutral", dijo el profesor Sahami, que anteriormente trabajó en Google como científico investigador sénior. "Las elecciones que se hacen en la construcción de tecnología tienen ramificaciones sociales".

Imagen
Desde la izquierda, Jeremy Weinstein, Hilary Cohen, Mehran Sahami y Rob Reich de Stanford están desarrollando un curso de ética informática para el próximo año. 
Crédito
Christie Hemm Klok por The New York Times

Los cursos están surgiendo en un momento en que las grandes compañías de tecnología han estado luchando para manejar los efectos secundarios: noticias falsas en Facebook , seguidores falsos en Twitter , videos lascivos para niños en YouTube, sobre la mentalidad de construir primero. Constituyen un desafío abierto a una actitud común de Silicon Valley que generalmente ha descartado la ética como un obstáculo.
"Necesitamos al menos enseñarle a la gente que hay un lado oscuro en la idea de que debe moverse rápido y romper cosas", dijo Laura Norén , becaria postdoctoral en el Centro de Ciencia de Datos de la Universidad de Nueva York que comenzó a enseñar una nueva ciencia de datos curso de ética este semestre. "Puedes parchar el software, pero no puedes parchar a una persona si, ya sabes, daña la reputación de alguien".
Los programas informáticos son necesarios para garantizar que los estudiantes entiendan los problemas éticos relacionados con la informática para poder ser acreditados por ABET , un grupo de acreditación global para programas de ciencia e ingeniería universitarios. Algunos departamentos de informática han plegado el tema en una clase más amplia, y otros tienen cursos independientes.
Pero hasta hace poco, la ética no parecía relevante para muchos estudiantes.
"En comparación con el transporte o los médicos, su interacción diaria con daño físico o muerte o dolor es mucho menor si está escribiendo software para aplicaciones", dijo Joi Ito , director del MIT Media Lab.
Una razón por la que las universidades están impulsando la ética tecnológica ahora es la popularización de herramientas poderosas como el aprendizaje automático: algoritmos informáticos que pueden aprender tareas de forma autónoma mediante el análisis de grandes cantidades de datos. Debido a que tales herramientas podrían en última instancia alterar la sociedad humana, las universidades se apresuran a ayudar a los estudiantes a comprender las posibles consecuencias, dijo el Sr. Ito, quien es co-profesor del curso de ética de Harvard-MIT.
"A medida que comenzamos a ver cosas, como vehículos autónomos, que claramente tienen la capacidad de salvar a las personas pero también causan daños, creo que las personas están luchando por construir un sistema de ética", dijo. (El Sr. Ito es director de The New York Times Company ).
El otoño pasado, la Universidad de Cornell presentó un curso de ciencias de datos donde los estudiantes aprendieron a lidiar con los desafíos éticos, como conjuntos de datos sesgados que incluyen muy pocos hogares de bajos ingresos para ser representativos de la población en general. Los estudiantes también debatieron el uso de algoritmos para ayudar a automatizar decisiones que cambian la vida, como la contratación o la admisión a la universidad.
"Realmente se enfocó en tratar de ayudarlos a comprender qué es lo que en su práctica cotidiana como científico de datos es probable que afronten, y ayudarlos a pensar sobre esos desafíos de manera más sistemática", dijo Solon Barocas, profesor asistente de ciencias de la información que enseñó el curso.

Imagen
El objetivo de los nuevos cursos, como el de la Sra. Norén, es capacitar a la próxima generación de tecnólogos y formuladores de políticas para que consideren las ramificaciones de las innovaciones.
Crédito
Sam Hodgson por The New York Times

En otro curso de Cornell, Karen Levy, también profesora asistente en ciencias de la información, les está enseñando a sus estudiantes a enfocarse más en la ética de las compañías tecnológicas.
"Una gran cantidad de decisiones éticamente cargadas tiene que ver con las elecciones que hace una empresa: qué productos eligen desarrollar, qué políticas adoptan en torno a los datos de los usuarios", dijo el profesor Levy. "Si el entrenamiento en ética de la ciencia de datos se centra completamente en la responsabilidad individual del científico de datos, corre el riesgo de pasar por alto el rol de la empresa en general".
El curso de Harvard-MIT, que tiene 30 estudiantes, se centra en las implicaciones éticas, políticas y legales de la inteligencia artificial. Fue impulsado y financiado en parte por un nuevo fondo de investigación de ética de la inteligencia artificial cuyos donantes incluyen a Reid Hoffman, cofundador de LinkedIn, y Omidyar Network, la firma de inversiones filantrópicas de Pierre Omidyar, el fundador de eBay.
El plan de estudios también cubre la diseminación de los puntajes de riesgo algorítmico que usan datos, como si alguna vez alguien fue suspendido de la escuela, o cuántos de sus amigos tienen registros de arrestos, para pronosticar si alguien es probable que cometa un delito. El Sr. Ito dijo que esperaba que el curso estimulara a los estudiantes a hacer preguntas éticas básicas como: ¿Es justa la tecnología? ¿Cómo se asegura de que los datos no estén sesgados? ¿Deberían las máquinas juzgar a los humanos?
Algunas universidades ofrecen dichos programas en sus departamentos de ciencias de la información, derecho o filosofía. En Stanford, el departamento de ciencias de la computación ofrecerá el nuevo curso de ética, titulado provisionalmente "Ética, políticas públicas y ciencias de la computación".
Las expectativas para el curso son altas en parte debido a la popularidad del profesor Sahami en el campus. Alrededor de 1,500 estudiantes toman su curso introductorio de informática cada año.
El nuevo curso de ética cubre temas como inteligencia artificial y máquinas autónomas; privacidad y derechos civiles; y plataformas como Facebook. Rob Reich, un profesor de ciencias políticas de Stanford que está ayudando a desarrollar el curso, dijo que a los estudiantes se les pediría que consideren esos temas desde el punto de vista de los ingenieros de software, diseñadores de productos y legisladores. Los estudiantes también serán asignados a traducir soluciones ideales en código de computadora.
"Stanford tiene absolutamente la responsabilidad de desempeñar un papel de liderazgo en la integración de estas perspectivas, pero también lo hacen Carnegie Mellon y Caltech y Berkeley y el MIT", dijo Jeremy Weinstein , profesor de ciencias políticas de Stanford y co-desarrollador del curso de ética. "El conjunto de instituciones que están generando la próxima generación de líderes en el sector de la tecnología tienen que subirse a este tren".
Una versión de este artículo aparece impresa en , en la página de la edición de Nueva York con el titular: en el campus, los departamentos de informática encuentran un punto ciego: ética Reimpresiones de pedidos | Papel de hoy | Suscribir

Comentarios

Entradas populares de este blog

Inteligencia Artificial: Implicaciones para el Futuro de la Educación

¿Has notado más discusión recientemente sobre Inteligencia Artificial o IA?  Cuando escuchas por primera vez "Inteligencia Artificial", ¿hay una imagen que aparece en tu mente?  ¿Es algo que puedes definir fácilmente?  Tal vez su punto de comprensión / referencia es algo que ha visto en las películas.  Para mí, siendo un niño de los 80, mi marco de referencia inicial es Star Wars, inmediatamente pienso en R2D2 o C3PO.  Entonces, mi mente se distrae pensando en "I, Robot", protagonizada por Will Smith, en la cual los robots desarrollaron la capacidad de pensar como humanos, sentir y actuar por su cuenta.  Y más actualmente, pienso en Alexa, Echo, Siri y otros que han ganado popularidad, incluso más recientemente.  Pero, ¿cuál es el verdadero significado de la IA y cómo la vemos en la vida cotidiana? El concepto de "inteligencia artificial" puede ser difícil de comprender / comprender, especialmente cuando se trata de pensar sobre cómo se puede aplicar

La comida debe ser regulada como el tabaco, dicen activistas

La comida debe ser regulada como el tabaco, dicen activistas Reglas podrían incluir una reducción obligatoria de azúcar, la sal y la grasa en los alimentos La industria alimentaria debe ser regulada como la industria del tabaco como la obesidad representa un mayor riesgo global de salud que los cigarrillos, dicen los grupos internacionales. Consumers International y la Federación Mundial de la obesidad están pidiendo la adopción de normas más estrictas. Estos podrían incluir fotos en el envasado de alimentos de los daños causados ​​por la obesidad, similares a las de los paquetes de cigarrillos. Pero la Federación de Alimentos y Bebidas dijo que la industria alimentaria ya apoyó esas medidas. Seguir leyendo la historia principal " Inicio cita Si no tomamos medidas ahora vamos a tener la misma intransigencia y la falta de celeridad en la industria alimentaria ... ya que la industria del tabaco en la década de 1960 " Lucas Upchurch Consumers International Sit

Pensando como un humano: lo que significa darle a AI una teoría de la mente

El mes pasado, un equipo de jugadores de IA autodidacta perdió espectacularmente contra profesionales humanos en un muy esperado combate cuerpo a cuerpo galáctico.  Tomando lugar como parte de los  Campeonatos Internacionales Dota 2  en Vancouver, Canadá, el juego demostró que en un pensamiento estratégico y una colaboración más amplios, los humanos aún permanecen en la cima. La IA era una serie de algoritmos desarrollados por la  organización sin ánimo de lucro  OpenAI respaldada  por  Elon Musk  .  Colectivamente denominados  OpenAI Five  , los algoritmos usan el refuerzo para aprender a aprender cómo jugar el juego, y colaborar entre sí, desde cero. A diferencia del ajedrez o Go, el  videojuego de  Dota 2  multijugador  se considera mucho más difícil para las computadoras.  La complejidad es solo una parte: la clave aquí es que un grupo de algoritmos de inteligencia artificial desarrolle un tipo de "sentido común", una especie de intuición sobre lo que otros planea