La regulación es clave para que todos los ciudadanos puedan disfrutar de los beneficios de la innovación, y construir una Inteligencia Artificial que amplifique las capacidades humanas.
Por Airam Fernández
En una ciudad, un sistema de drones diseñado para la búsqueda de personas solicitadas por la Justicia podría equivocarse actuando por sesgos y llevar a la cárcel a una persona inocente; incluso podría tomar decisiones con datos predominantemente de una raza o color de piel, y se convertiría en un sistema racista.
En esa misma ciudad, una persona que conduce un vehículo autónomo se ve en aprietos cuando de pronto el camino se bifurca en dos: en una vía hay un grupo de personas y en la otra, solo una y es el auto quien toma la decisión de qué camino tomar, cuando frenar. En cualquier caso, su decisión sobre cuál dirección tomar sería cuestionable.
Parecen escenas de alguna película de ciencia ficción, pero perfectamente podrían ocurrir ante el avance de la Inteligencia Artificial (IA). Esa posibilidad hace que cada vez más actores de la industria tecnológica se sumen a la cruzada de enseñar a las máquinas a tomar decisiones desde la ética y la responsabilidad, y discutir en torno a la urgencia de una regulación para su uso e implementación.
Dos expertos coinciden en que las interrogantes fundamentales ya no giran en torno a lo que puede hacer la IA, sino en cómo debería ser utilizada.
“Es muy importante que podamos usar y desarrollar la tecnología, y también preguntarnos para qué. Esa es la pregunta clave que quienes estudian la relación entre las personas y las tecnologías recomiendan hacerse, cada vez que estamos frente a un aparato que se nos presenta como solución a algún problema o desafío”, dice Demián Arancibia, jefe de la Oficina Futuro del Ministerio de Ciencia, Tecnología, Conocimiento e Innovación.
Benjamín Díaz, gerente de Nube de Microsoft Chile, dice que realmente esta tecnología puede tener un impacto positivo contribuyendo a resolver algunos de los desafíos más grandes que tenemos como sociedad. “Para lo que sea que la entrenemos estará disponible, pero queremos que su uso amplifique las capacidades humanas, respete los derechos humanos y la privacidad ante todo”, explica.

La necesidad de la regulación
Díaz dice que en Chile y en el mundo es incipiente la discusión en torno a la regulación de la IA y otras tecnologías similares, cómo se podría plantear, o qué aspectos o principios deberían regirlas. Pero se está dando, y es un avance importante y necesario.
En octubre del año pasado, por ejemplo, el Ministerio de Ciencia presentó la primera Política Nacional de Inteligencia Artificial de Chile, que entre sus ejes considera temas relacionados a ética y aspectos normativos. Lo más importante que emergió del proceso participativo generado en torno a esta iniciativa fue la necesidad de actualizar la regulación de datos personales y mejorar la eficiencia del Estado para compartir datos públicos, dice Arancibia, quien dirige la oficina que estuvo a cargo de su desarrollo. “En ambos casos, para crear conocimiento y sus aplicaciones a la economía, con el centro en el bienestar de las personas”, precisa.
Otra cosa que quedó clara a raíz de ese proceso fue que las personas que viven en Chile no están de acuerdo con ser reemplazados por IA, o que la tecnología se desarrolle o utilice para agravar problemas asociados a las crisis socioambientales, por ejemplo. En ese sentido, Arancibia plantea que lo que quedó reflejado en la estrategia tiene relación con orientar el uso de IA para enfrentar desafíos como el acceso a mejores puestos de trabajo, más productividad y desarrollo sostenible.
Microsoft, por su parte, desarrolló un conjunto de seis principios y valores universales que consideran útiles para discutir cada vez que se ponga en producción un sistema basado en esta tecnología o en alguna de sus variantes: responsabilidad, inclusión, confiabilidad y seguridad, equidad, transparencia, así como privacidad y seguridad.
“Creemos que son principios esenciales para desarrollar IA de confianza y responsable a medida que se incorpora en productos y servicios más convencionales”, dice el ejecutivo de la firma tecnológica.
Otro hito relacionado tiene que ver con el avance de Chile en la discusión legislativa de un proyecto de ley que es pionero en el mundo porque busca regular el uso de las neurotecnologías. Frente a eso, Arancibia destaca que el mensaje que se entrega como país tiene que ver con la construcción colaborativa y con la voluntad de abordar “con responsabilidad” distintos temas de futuro que involucran desde aspectos filosóficos hasta ámbitos normativos, técnicos y de impacto social.
En paralelo, en septiembre pasado el Senado aprobó el informe de la comisión mixta sobre la reforma constitucional que crea los neuroderechos y les da categoría de derechos humanos que deben ser protegidos y consagrados. La iniciativa fue impulsada por la Comisión de Desafíos del Futuro, Ciencia, Tecnología e Innovación junto a expertos de la academia y al neurobiólogo español Rafael Yuste, quien plantea que en un plazo de 10 o 20 años existirán tecnologías capaces de adentrarse en el cerebro humano para registrar su actividad y manipularla.
“Eso es inédito y significa un paso para materializar regulación orientada a aprovechar los beneficios (de las tecnologías) y, a la vez, resguardarnos de sus posibles amenazas”, valora Arancibia.
Díaz considera que la discusión debe ir más allá y que para acordar regulaciones específicas, se debe seguir probando la tecnología. En el documento “Una Constitución para nuestro futuro: siete reflexiones sobre tecnología”, Microsoft plantea que, en algunos casos, podría ser apropiado que la IA “continúe desarrollándose y madurando antes de que se puedan crear reglas o regulaciones y determinar si, y cómo, gobernar mejor su uso o establecer límites en su desarrollo y adopción”.
El ejecutivo plantea que no en vano, el gigante Tesla sigue testeando sus self driving cars, que ya están listos, pero que todavía no han podido salir a tomarse las calles precisamente por temas regulatorios. “La IA es una herramienta tremenda que nos puede ayudar a construir un mundo más justo, pero estamos en un punto en que todavía tiene que ganarse a la sociedad, hacer que los ciudadanos confíen en ella, que crean que es posible convivir con máquinas que tomarán decisiones responsables y para el beneficio común. Avanzar hacia allá es el mayor desafío que tenemos todas las grandes firmas tecnológicas”, concluye Díaz.