Aunque no sean un hecho puramente científico, es interesante conocer estas medidas propuestas (en origen en el mundo de la ciencia ficción) para controlar posibles riesgos de la inteligencia artificial. Las leyes de la robótica propuestas por Isaac Asimov son las siguientes:

  • Primera Ley. Un robot no hará daño a un ser humano ni, por inacción, permitirá que un ser humano sufra daño.
  • Segunda Ley. Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entren en conflicto con la primera ley.
  • Tercera Ley. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley.

Estas leyes generan un interesante debate sobre posibles reglas de juego que se le puedan aplicar a los sistemas de inteligencia artificial que creemos en el futuro. De hecho, estudios de filósofos y juristas modernos proponen dos nuevas leyes para evitar que sucedan resultados inesperados fruto de aplicar a fondo las primeras tres leyes. Estas dos nuevas se plantean de la siguiente manera:

  • Cuarta Ley. Un robot debe poder identificarse ante el público («identificación simétrica»).
  • Quinta Ley. Un robot debe poder explicar al público su proceso de toma de decisiones («transparencia algorítmica»).

¿Crees que hay que aplicar estas leyes a los sistemas de predicción de apuestas deportivas que utilicen inteligencia artificial?

En AlphaPicks queremos que nuestros sistemas de IA sean robustos y sostenibles. Por ello, siempre tratamos de tener en cuenta este tipo de aspectos éticos.