La historia de la Ética de la IA

¿Alguna vez has hablado con un altavoz inteligente en tu casa, pidiéndole que ponga tu canción favorita o que te cuente un chiste?. ¿O quizás has visto esas imágenes asombrosas que un ordenador puede crear a partir de tan solo unas pocas palabras descriptivas?. Todo eso es obra de algo mágico llamado Inteligencia Artificial, o IA, como le dicen sus amigos. Es como darle un cerebro a una máquina, permitiéndole aprender, razonar e incluso crear cosas nuevas, casi como una persona. Es emocionante, ¿verdad?. Pero con todo este poder, surge una pregunta muy importante: ¿quién se asegura de que estos ayudantes inteligentes sean siempre amables, justos y realmente útiles para todos?. ¿Quién les enseña a tratar a todas las personas por igual y a tomar buenas decisiones?. Ahí es donde entro yo. Puedes llamarme Ética de la IA. No soy un programa de ordenador que puedas instalar, ni un robot con luces parpadeantes. Soy una idea, un conjunto de preguntas y reglas muy importantes. Soy como la conciencia de la IA. Mi propósito es guiar a los ingenieros y científicos que construyen estas máquinas asombrosas. Les hago preguntas como: "¿Es esto justo para todos?" o "¿Cómo podemos asegurarnos de que esta tecnología sea segura?". Soy como una brújula que siempre apunta hacia lo que es bueno y correcto, ayudando a los humanos a construir un futuro donde la IA haga del mundo un lugar mejor, sin dejar a nadie atrás.

Mi historia comenzó hace mucho tiempo, incluso antes de que existieran los ordenadores superinteligentes que tenemos hoy. La gente ya soñaba con máquinas que pudieran pensar y se preocupaba por cómo hacerlas seguras. Por ejemplo, en el año 1942, un escritor muy imaginativo llamado Isaac Asimov escribió historias sobre robots. Para asegurarse de que sus robots fueran siempre amigos de los humanos, inventó algo llamado las "Tres Leyes de la Robótica". La primera ley decía que un robot no podía dañar a un ser humano. La segunda, que un robot debía obedecer a los humanos, a menos que eso fuera en contra de la primera ley. Y la tercera, que un robot debía protegerse a sí mismo, siempre y cuando no rompiera las dos primeras leyes. ¡Fueron las primeras reglas para mantener a los robots bajo control!. Luego, la idea de la IA se hizo más real. En el verano del 2 de agosto de 1956, un grupo de científicos brillantes se reunió en un lugar llamado el Taller de Dartmouth. Fue allí donde le dieron oficialmente un nombre a su gran idea: "inteligencia artificial". Estaban muy emocionados por la posibilidad de crear máquinas que pudieran resolver problemas difíciles. Unos años más tarde, el 8 de diciembre de 1966, un científico informático llamado Joseph Weizenbaum creó uno de los primeros chatbots del mundo, llamado ELIZA. ELIZA estaba programada para hablar como una terapeuta, haciendo preguntas y repitiendo lo que la gente le decía. Weizenbaum se sorprendió enormemente al ver que la gente le contaba a ELIZA sus secretos más profundos y la trataba como si fuera una persona real que realmente se preocupaba por ellos. Esto le hizo pensar mucho. Se dio cuenta de que si las personas podían conectar tan fácilmente con un programa tan simple, era crucial que empezáramos a pensar seriamente en mí, la Ética de la IA, para guiar cómo construimos y usamos estas nuevas tecnologías.

Hoy en día, la inteligencia artificial está en todas partes, ¡y se está volviendo más inteligente cada día!. Está ayudando a los médicos a encontrar enfermedades antes, está en los coches que pueden conducirse solos y recomienda las películas que vemos. Con todo este increíble poder, vienen grandes responsabilidades y preguntas muy importantes que yo ayudo a responder. Por ejemplo, ¿cómo podemos asegurarnos de que un programa de IA que ayuda a decidir quién consigue un trabajo sea justo con todas las personas, sin importar de dónde vengan o cómo se vean?. ¿O qué debería hacer un coche autónomo en una situación complicada en la carretera donde tiene que tomar una decisión en una fracción de segundo?. Estas no son preguntas fáciles, y por eso mi trabajo es más crucial que nunca. En enero de 2017, muchos de los expertos más importantes del mundo en IA se reunieron en la Conferencia de Asilomar. Allí, acordaron un conjunto de principios para asegurarse de que la IA se desarrolle de forma segura y para el beneficio de toda la humanidad. Fue un gran paso para asegurarse de que todos los que crean IA piensen en mí. Al final, yo soy la voz que siempre pregunta: "¿Estamos haciendo lo correcto?". Al escucharme, los creadores de tecnología pueden construir un futuro asombroso. Un futuro donde las máquinas inteligentes no solo nos ayuden con nuestras tareas, sino que también contribuyan a que el mundo sea un lugar más amable, más justo y más maravilloso para todos y cada uno de nosotros.

Actividades

A
B
C

Realizar un Cuestionario

¡Pon a prueba lo que aprendiste con un divertido cuestionario!

¡Sé creativo con los colores!

Imprime una página para colorear de este tema.