Sei sulla pagina 1di 1

Fundación Quiénes somos Publicidad Autores HAZTE AMIGO

INNOVACIÓN SOCIAL TRANSPARENCIA RSC TERCER SECTOR OPINIÓN

Emprendedores sociales Finanzas sociales

En busca de una inteligencia artificial en la que


confiar
Sentar las bases de cómo minimizar los riesgos de la inteligencia artificial (IA) a la vez que se maximicen los
beneficios de esta es una necesidad a la que los estamentos oficiales parece que empiezan a dar respuesta.

Albert Vilariño @albertvilarino | 1 marzo 2019

18

Es este, el de la innovación tecnológica y sus retos, un tema del que existe una necesidad,
más pronto que tarde, que se piense, se regule, se legisle y se dé respuesta a NOTICIAS RELACIONADAS
dilemas derivados de la implantación de esta tecnología cada vez más cercanos en el
horizonte.
¿Cómo será el futuro del trabajo?

Como parte de esa necesidad de respuesta, el denominado Grupo de expertos de alto Renta básica ¿solución a la automatización?
nivel sobre inteligencia artificial (AI HLEG) de la Comisión Europea se ha puesto manos
a la obra para elaborar un borrador de las Directrices éticas sobre IA que deberá
producir un documento final este año 2019. Inteligencia artificial y responsabilidad
social corporativa

Estas Directrices quieren ir más allá de una simple enumeración de principios y valores
esenciales, y pretenden servir de guía para su aplicación real en sistemas de inteligencia
artificial, ofreciendo diversos niveles de abstracción.

El grupo de expertos en IA está formado por 52 representantes de la sociedad civil, la


industria y la universidad, y tiene como objetivo principal asesorar a la Comisión sobre
los próximos pasos que abordarán los desafíos y oportunidades a mediano y largo plazo
relacionados con la IA a través de recomendaciones que se incorporarán al proceso de
desarrollo de políticas, al proceso de evaluación legislativa y al desarrollo de próximas
estrategias digitales.

Los expertos abogan por un enfoque de la inteligencia artificial centrada en el bienestar


de los seres humanos pero desde la confiabilidad. Las personas deben poder
confiar en la IA ya que es la única manera de que se puedan beneficiar completamente
de ella.
TEMAS

En las relaciones humanas, la confianza es clave para llegar a conseguir un mutuo


beneficio para todas las partes en la situación que sea (por ejemplo, comprar, vender,
ética innovación social
negociar, etc.), y no lo va a ser menos si en lugar de tratar con personas se está haciendo
con máquinas o software dirigidos por algoritmos que no se pueden tocar, que en
inteligencia arti7cial RSC RSE
muchos casos son opacos a los ojos en cuanto a su funcionamiento, y que van a jugar un
enorme papel en la vida dentro de poco tiempo.

A continuación se exponen algunos puntos que son considerados por los expertos como
principales a la hora de debatir sobre la inteligencia artificial, su relación con los seres
humanos y la confianza de estos en ella.

La con'abilidad incluye la con'anza en la tecnología; en las reglas, leyes y normas que rigen
la inteligencia arti'cial, y en los modelos de negocios de los servicios, productos, y
fabricantes de IA.

Componentes de la inteligencia artificial confiable

La confiabilidad manifestada por los expertos incluye la confianza en la tecnología (a LO + LEÍDO


través de la forma en que está construida y utilizada por los seres humanos); la
confianza en las reglas, leyes y normas que rigen la inteligencia artificial, y la confianza
en los modelos de negocios de los servicios, productos, y fabricantes de IA. 1 Las cinco claves del auge de la empresa
social

Además, se entenderá como IA confiable aquella que cumpla dos premisas 2 La Agenda 2030, protagonista del VI
Congreso Nacional de Responsabilidad
concretas: Social

Deberá respetar los derechos fundamentales, las leyes vigentes y los principios
y valores esenciales, de manera que se garantice un “fin ético”.
3 ‘Compliance’ y debida diligencia,
ausentes en el caso Manuel Briñas

Deberá ser fiable y sólida técnicamente hablando, ya que un escaso dominio


tecnológico puede provocar daños involuntarios, aunque las intenciones sean
4 “No vendemos solo botellas de agua,
hacemos que el comprador sea parte de
un proyecto social”
buenas.

Las dos premisas anteriores se traducen en diversos requerimientos que deben de


cumplirse.
BOLETÍN

Por ejemplo, uno de los requerimientos esenciales (los expertos los ponen en el borrador Suscríbete a nuestro boletín de
en un orden alfabético para remarcar la importancia de todos ellos) es el diseño para noticias
todos.
Tu dirección de correo electrónico

Los sistemas deben diseñarse de manera que todos los ciudadanos puedan usar los Al pulsar en "Enviar" aceptas el Aviso legal y la
Política de privacidad.
productos o servicios, independientemente de su edad, estado de discapacidad o estado
social. De manera particularmente importante considerar la accesibilidad para
ENVIAR
personas con discapacidades, que son una categoría horizontal de la sociedad, presente
en todos los grupos sociales.

La no discriminación es otro requerimiento y se refiere a la variabilidad de los


resultados de la IA entre individuos o grupos de personas en función de la explotación de
las diferencias en sus características que pueden considerarse de manera intencional o
no (como el origen étnico, el género, la orientación sexual o la edad), y que pueden
afectar negativamente a tales individuos o grupos.

El respeto a la privacidad es también muy importante. La privacidad y la protección de


datos deben estar garantizadas en todas las etapas del ciclo de vida del sistema de IA,
según las Directrices éticas sobre IA.

Lo anterior incluye todos los datos proporcionados por el usuario, pero también toda la
información generada por este a lo largo de sus interacciones con el sistema de
inteligencia artificial.

Más requerimientos enunciados en el borrador son la rendición de cuentas, la


gobernanza de los datos, la gobernanza de la autonomía de la IA, el respeto por la
autonomía humana, la robustez, la seguridad o la transparencia.

Otros requerimientos a la inteligencia arti'cial son la rendición de cuentas, la gobernanza de


los datos, la gobernanza de la autonomía de la IA, el respeto por la autonomía humana, la
robustez, la seguridad o la transparencia.

¿Cómo asegurar que la IA se ha desarrollado centrada en los humanos?

De igual manera que esos anteriores requerimientos asegurarían que la inteligencia


artificial es confiable, también existen una serie de principios para asegurarse de que se
ha desarrollado alrededor del ser humano, teniéndolo en cuenta de una manera central.

Estos cinco principios, que suenan un poco a los libros de Asimov y las películas de
ciencia ficción, son:

1. El principio de beneficencia requiere que los sistemas de IA deben diseñarse y


desarrollarse para mejorar el bienestar individual y colectivo, y generando
prosperidad, creación de valor y maximización de la riqueza y sostenibilidad.

2. El principio de la no maleficencia señala que los sistemas de IA no deberían


dañar a los seres humanos. Por diseño, esos sistemas deben proteger la dignidad,
integridad, libertad, privacidad y seguridad de los seres humanos en la sociedad y
en el trabajo, sin amenazar el proceso democrático, la libertad de expresión, las
libertades de identidad o la posibilidad de rechazar los servicios de IA.

3. El principio de autonomía dice que los seres humanos que interactúan con los
sistemas de IA deben mantener una autodeterminación plena y efectiva sobre ellos
mismos.

4. El principio de justicia proclama que los sistemas de IA deben ser justos, y los
desarrolladores e implementadores deben garantizar que las personas y los grupos
minoritarios se mantengan libres de sesgos, estigmatización y discriminación.

5. Por último, el principio de explicabilidad dice que la transparencia es clave para


construir y mantener la confianza de los ciudadanos en los desarrolladores de los
sistemas de IA y en los sistemas en sí mismos, ya que tanto la transparencia
tecnológica como el modelo de negocio importan desde un punto de vista ético.

Los expertos destacan que, en situaciones particulares, pueden surgir tensiones entre
los principios cuando se consideran desde el punto de vista de un individuo en
comparación con el punto de vista de la sociedad, y viceversa.

¿En qué no se han puesto de acuerdo los expertos?

Como en todo tipo de guías y documentos realizados por muchos participantes, en este
también ha habido discrepancias entre ellos y preocupaciones no resueltas que
esperan sean solucionadas con una consulta a los grupos de interés.

Entre esas preocupaciones críticas están por ejemplo las relacionadas con la
identificación sin consentimiento de personas individuales por entidades públicas
o privadas, las implicaciones derivadas de que en un momento dado un humano no sepa
que está interactuando con una máquina en lugar de con otro humano, o los sistemas de
armas letales autónomos.

18

NOTICIAS RELACIONADAS

EMPLEADOS INNOVACIÓN SOCIAL EMPLEADOS

¿Cómo será el futuro del trabajo? Renta básica ¿solución a la Inteligencia artificial y
automatización? responsabilidad social corporativa
Albert Vilariño | 25 febrero 2019
Albert Vilariño Albert Vilariño

COMENTARIOS

Email Nombre

Escribir un comentario

ENVIAR

Fundación Quiénes somos Publicidad Autores HAZTE AMIGO

INNOVACIÓN SOCIAL TRANSPARENCIA RSC TERCER SECTOR OPINIÓN

© Compromiso Empresarial 2016

Potrebbero piacerti anche