Google y las sorprendentes reglas que le impuso a su IA: "No hacer daño y obedecer a humanos"
Deepmind, la empresa de IA de Google, ha generado controversia por las reglas que les ha impuesto a sus nuevos sistemas con el fin de que no tomen decisiones independientes.
- La segunda ciudad más cara de Sudamérica está en Perú: superó a Sao Paulo y Santiago
- ¿Cómo comprar productos que rematan Aduanas en enero?: adquiere así laptops, celulares, ropa y más

El avance continuo de la tecnología ha impulsado innovaciones, pero el riesgo de que la IA se rebele o tome decisiones no deseadas plantea preocupaciones significativas en términos de seguridad y control. Al respecto, DeepMind, la empresa de inteligencia artificial (IA) de Google, ha propuesto la idea de establecer una "constitución robot" como medida para evitar que la tecnología se vuelva incontrolable. Recientemente, la compañía ha lanzado tres innovadores sistemas tecnológicos destinados a potenciar la inteligencia y autonomía de los robots.
No obstante, conceder una mayor autonomía a una tecnología no humana conlleva riesgos significativos. En este sentido, Google ha introducido una guía de seguridad denominada "Constitución del Robot". Esta establece una serie de reglas que, en el escenario ideal, la inteligencia artificial (IA) podría comprender y poner en práctica.
TE RECOMENDAMOS
🚨 EN VIVO DEBATE PRESIDENCIAL 2026, HOY 30 DE MARZO: Forsyth, 'Popy', Molinelli y MÁS #Las10deldía
PUEDES VER: ¿Cómo comprar productos que rematan Aduanas en enero?: adquiere así laptops, celulares, ropa y más

¿Cuáles son las reglas que estableció Google a su IA?
Google ha presentado recientemente tres novedosos sistemas de IA: AutoRT, SARA-RT y RT-Trajectory. Estas nuevas incorporaciones buscan facilitar la comprensión y ejecución de órdenes más complejas por parte de las máquinas.
“Antes de que los robots puedan integrarse en nuestra vida cotidiana, es necesario desarrollarlos de manera responsable con investigaciones sólidas que demuestren su seguridad en el mundo real”, se lee en la página web de DeepMind.
Con el objetivo de asumir la responsabilidad ante la inmensidad y el potencial incierto de esta inteligencia artificial, la compañía ha introducido la guía de seguridad denominada "Constitución del Robot". Esta se inspira en las leyes formuladas por Isaac Asimov, un destacado autor de obras de ciencia ficción y divulgación científica.

La IA de Google ha ganado bastante popularidad tras su lanzamiento. Foto: Pixabay
Las leyes impuestas a la IA son:
- Un robot no hará daño a un ser humano, ni por inacción permitirá que un ser humano sufra daño.
- Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entren en conflicto con la primera ley.
- Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley.
Dichas normas buscan regular y supervisar las acciones de las nuevas tecnologías, especialmente ante la capacidad de los robots de Google para comprender, adaptarse y tomar decisiones en diversas situaciones. La "Constitución del Robot" se enfoca en prevenir que la inteligencia artificial tome decisiones autónomas en tareas relacionadas con humanos, animales, objetos punzantes y otros dispositivos electrónicos.
DeepMind ha garantizado que sus robots cuenten con una programación para detenerse automáticamente ante una fuerza excesiva en sus articulaciones. Además, han incorporado un botón de apagado físico que cualquier persona puede presionar para desactivarlos según su criterio.

























