Tomar una decisión. Tomarla ante ausencia de datos. Tomarla de entre un número inmanejable para ninguna máquina ni ser físico concebible. Interpretar los efectos de la decisión. Interpretarlos como lo interpretarían otros, no sólo como lo interpretarías tú. Estimarlos para cada decisión posible. Calibrar la importancia de los mismos en comparación con la que le dan los demás y con la importancia que le das a tus propios principios (algo que no puede hacerse sin tener una moral). Llegar a una conclusión cuyo rango de variación es más grande que el de certeza.
Y luego hacerse responsable de los errores cometidos, de los aciertos cometidos, de las posibles interpretaciones que otros, con sus propios sistemas de interpretación (moral, ética) hagan de tus actos (de la parte visible de tus actos), ante ausencia completa de datos y con sus propias decisiones y calibraciones de las circunstancias. De sus juicios sobre ti, a la mayoría de los cuales no tendrás derecho a replicar, mucho menos a defenderte.
Todas estas tareas, que un ser inteligente debe realizar a lo largo de su vida, tendrá que hacerlas una máquina, si llega a ser inteligente.
Es decir:
- Se equivocará.
- No tendrá datos suficientes.
- No podrá explorar un número no acotado de alternativas (aunque sí podría explorar más que nosotros, y más rápido).
- Tendrá que obtener de alguna manera su propia moral y/o ética.
- Tendrá que tener empatía, para calibrar las interpretaciones de y los efectos sobre los demás.
- Tendrá que asumir sus errores y sus aciertos, e incorporarlos a su historia, y, si es capaz, aprender de ellos.
- Será juez de y juzgado por sus semejantes, es decir, aparecerá la desigualdad y el sometimiento, violento o no, a los demás.
Por tanto:
- Será indistinguible de un ser humano. Ni mucho menos inferior. Ni mucho menos superior.
Así, que, dime, en confianza, ¿eres humano o cylon?





