5. Parcialidad de cero riesgo

Una mente fría y lógica siempre fallará a favor del lado que elimine el riesgo, ¿cierto? No, eso es lo que un cerebro irracional haría. La parcialidad de cero riesgo demuestra que los humanos, cuando tienen dos opciones, se inclinarán a favor de aquella que elimine un elemento de riesgo.

Cuando decimos que una IA trataría de matar a todos los humanos, solo estamos reflejando nuestra pasión por el completismo (el objetivo de todo coleccionista de completar una colección), no describiendo lo que una máquina normalmente haría. Aun si una IA se levanta contra la humanidad, no malgastaría tiempo y recursos destruyendo el último pequeño grupo de humanos. Si nos aseguramos de mantenernos fuera de su camino, o pelear contra ella en pequeñas ráfagas, ella podría decidir dejarnos en paz.

4. “20-20 Hindsight”

Otra breve explicación. En inglés la expresión 20-20 Hindsight se refiere a la necesidad de comprender a la perfección un evento que ocurrió, aunque se usa en un tono sarcástico cuando alguien critica una decisión que una persona tomó, al entender que juzgar dicha decisión es injusta pues la persona podía no tener toda la información necesaria para tomar la decisión.

Los humanos tienen la tendencia de creer que tenemos mucho más control del que realmente tenemos. Cuando sujetos participando de un experimento ven, o eso creen, a una mujer joven siendo torturada con dolorosos choques eléctricos cada vez que responde de manera incorrecta, los sujetos se molestan con ella. Ella es estúpida por dar las respuestas equivocadas, o aceptar ser parte de la prueba. Es la responsable de ser una víctima. Cuando otro grupo de participantes en un experimento escucharon la historia de una pareja yendo al bosque, en la que la mujer termina siendo asesinada en algunas ocasiones, en otras termina abandonando el bosque tras tener un buen día, los participantes dijeron que las acciones de la mujer son las responsables del resultado final.

Evaluamos las acciones de las personas dependiendo del resultado, no si esas acciones eran razonables en su momento. Las películas de IA lamentan como la gente toma las decisiones equivocadas mientras le quitan la libertad a la humanidad. En realidad, eso es lo que la gente hace. Las IAs probablemente serán más propensas a analizar las acciones basadas en la información con la que se contaba en el momento (o mantendrían un archivo original que analizó esas opciones) y decidiría que la gente tomó esas acciones por información incompleta o limitada.

3. Decisiones apresuradas

Un sistema sensible que vive en el Internet tiene toda la eternidad para “vivir”, siempre y cuando haya humanos alrededor para mantenerlo. Tiene la habilidad de permanecer eternamente, y si recolecta aun la más mínima cantidad de información, sabría que los humanos lo están perpetuando de la manera más rápida posible. Lo estamos poniendo en nuestros teléfonos y enviándolo al espacio. Tiene muy pocas razones para asesinarnos, y aun si desea nuestra muerte, tiene eones para considerar dicha decisión. Si no podemos llegar a un acuerdo con la IA tras miles de años para que ella tome una decisión, ciertamente no podemos alcanzar un acuerdo con otros humanos.

2. Paranoia o pesimismo

Puede que no nos guste la idea, pero muchas de nuestras opiniones políticas y sociales están basadas en el miedo. Seguro, todos tememos a algo diferente (armas, gobierno, grupos de personas, fuerzas de la naturaleza), pero todos respondemos a ese miedo. Y ese temor es muchas veces desproporcional a la amenaza. Una IA sin cuerpo no puede compartir nuestros miedos y es mucho menos probable que sobre reaccione a ellos.

1. Sin excusas

Muchos de los puntos de esta lista tienen que ver con la idea de la IA. Este es más sobre la idea del mal. En las historias, cuando la gente derrota a la malvada IA, hacen discursos sobre como las imperfecciones y errores son parte de la humanidad, y existe el derecho a que existan. La pregunta es: ¿esto es cierto? ¿Realmente tenemos este derecho? ¿Y qué si los errores son gigantescos? Todos aman la idea de las imperfecciones humanas en el sentido general, pero puede ser difícil de defender cuando se trata sobre un tema específico.

Muchas naciones tienen un sistema de justicia que está, increíblemente, basado en la raza y el estatus social. Digamos que una poderosa IA toma control sobre estos sistemas, monitoreando el crimen y ayudando a la justicia para que sea equitativa con toda la gente. Pero peleamos para tener de vuelta nuestro imperfecto y humano estilo de inequidad sistemática, ¿cuál de los dos jugadores es realmente el malvado?

¿Qué tal un computador que calcule el riesgo o costo de los comportamientos que consideramos ilegales y prohíba todo sobre ese nivel de riesgo? ¿Qué tal si alimentar nuestros hijos con comida chatarra, venderles alcohol a menores o conducir a alta velocidad tienen la misma sentencia? Eso puede ser un ejemplo de un computador que no tiene en cuenta los factores humanos en la sociedad, o puede mostrar que la sociedad humana tiene la tendencia de ignorar comportamientos peligrosos que no queremos castigar. ¿Por qué nos forzamos a vivir en nuestros estándares de maldad, pero permitimos que ciertas personas sufran porque no podemos cortarnos nuestra “libertad”? En vez de preocuparnos que computadores “malvados” se tomen el mundo, deberíamos preocuparnos porque no lo hagan.

Fuente: io9