Sei sulla pagina 1di 4

UNIVERSIDAD NACIONAL DE COLOMBIA, HUMANOS Y MAQUINAS INTELIGENTES 1

Resumen No. 5: AI Now 2019 Report,Un lector


emocional de tu expresión facial, El papel de
Facebook en el Brexit y la amenaza a la democracia
Diego Arturo Narváez Puentes
danarvaezp@unal.edu.co
Humanos y maquinas inteligentes

I. AI N OW 2019 R EPORT contratistas externos para ensamblar y distribuir suministros


como jeringas, gasas y otros equipos esenciales y utilizó una
”tasa.algorı́tmica opaca que estableció la cantidad de trabajo.
Si algo no funciona, es çasi imposible cumplir la tasa”, dicen
I-A. El empuje creciente contra las IA peligrosas los trabajadores, ”si no tienen suficiente personal o si tienen
demasiado personal, si es feriado, si hay una persona que es
IA, poder y control nueva y se está poniendo al dı́a”. Y, si los trabajadores no
cumplen con su tarifa, serán sancionados.
Mediante una combinación de vigilancia, análisis predictivo
e integración en el lugar de trabajo. sistemas como entrevistas, Tales sistemas de fijación de tarifas dependen de la vigilan-
recursos humanos y supervisión, los empleadores están cia generalizada de los trabajadores para medir cuánto están
implementando sistemas algorı́tmicos para clasificar y evaluar haciendo. Los sistemas para permitir este monitoreo invasivo
a los trabajadores, establecer automáticamente salarios y de los trabajadores se están volviendo más comunes, incluso
desempeño objetivos, e incluso despedir trabajadores. En en entornos de trabajo tradicionalmente ”de cuello blanco.o
casi todos los casos, estos sistemas están optimizados desde empresarios.
perspectiva de los dueños de negocios y rara vez involucran Control de salarios algorı́tmicos
o incluyen perspectivas de trabajadores, necesidades o
consideraciones La mayorı́a de las herramientas de gestión
algorı́tmica, como la mayorı́a de los sistemas de decisión Los sistemas algorı́tmicos de gestión y control de los
algorı́tmica, carecen de Oportunidades significativas para que trabajadores también han tenido un grave impacto negativo
los trabajadores entiendan cómo funcionan los sistemas o en los salarios en la llamada .economı́a de trabajo”. Ya que
para competir o cambiar determinaciones sobre su sustento. tratan a los trabajadores como sujetos de experimentación
constante, a menudo en formas que desestabilizan su
seguridad económica e incluso psicológica. Dichos sistemas
Productividad del trabajador, IA y ”La tasa” de IA están correlacionados con salarios bajos y polı́ticas de
trabajo ”flexibles”que, en la práctica, a menudo dificultan
Un número creciente de empleadores confı́a en los a los trabajadores predecir sus ingresos, su horario o si
sistemas de inteligencia artificial para administrar a los incluso podrán trabajar ese dı́a. Al igual que otros sistemas
trabajadores y establecer las cargas de trabajo, acumulando de gestión algorı́tmica, funcionan combinando información y
un poder y control centralizados significativos. Por ejemplo, poder en beneficio de los propietarios, gerentes y un puñado
Amazon utiliza un sistema de inteligencia artificial que de desarrolladores, lo que permite a las empresas optimizar
establece objetivos de rendimiento para los trabajadores, dichos sistemas de manera que maximicen los ingresos sin
una llamada ”tasa”. La ”tasa”se calcula automáticamente tener en cuenta la necesidad de salarios estables y habitables
y cambia dı́a a dı́a. Si un trabajador se atrasa, está sujeto o ingresos predecibles, horarios y disponibilidad de trabajo.
a medidas disciplinarias. Esta presión de la llamada tasa
se ve exacerbada por los bajos salarios pagados a muchos Estas plataformas son continuamente optimizadas por em-
trabajadores del almacén. Un informe de la Mesa Redonda presas y propietarios. Los cambios bruscos destinados a au-
Económica descubrió que en el Inland Empire de California, mentar los ingresos de la empresa pueden provocar pérdidas
menciona que el 86 por ciento de los empleados de logı́stica significativas para los trabajadores.
de Amazon gana menos que el salario básico.
La capacidad de las plataformas de gestión automatizadas
para manipular (y reducir arbitrariamente) los salarios han
Los informes a principios de este año también revelaron estado en el centro de las quejas de los trabajadores. Muchos
que el Hospital Infantil de Filadelfia (CHOP) contrató a
2 UNIVERSIDAD NACIONAL DE COLOMBIA, HUMANOS Y MAQUINAS INTELIGENTES

identifican esto como parte de una táctica para hacer que los solo examinen la aplicación de la inteligencia artificial
trabajadores dependan de la plataforma para obtener salarios, en el proceso de contratación de forma aislada, sino que
atrayéndolos con promesas de un salario digno y condiciones también consideren cómo la IA está implicada en cambios
de trabajo flexibles, y luego reduciendo drásticamente los más amplios en las prácticas laborales, y cómo podrı́a estar
salarios una vez que los trabajadores han estructurado sus sirviendo para definir y redefinir las nociones de competencia
vidas en torno al trabajo para la plataforma. Es importante y capacidad.
tener en cuenta que tales preocupaciones no siempre se
traducen fuera del contexto de los estados unidos, que
Impactos desiguales de la automatización laboral
tiene un historial de seguridad social y leyes laborales cuya
aplicación ha proporcionado alguna medida de protección
de los trabajadores. Este no es el caso en muchas regiones En los últimos años, han surgido dos narrativas
del Sur globales, donde la capacidad de los residentes de predominantes sobre el futuro del trabajo y el trabajo.
recurrir al estado para obtener recursos, junto con un historial automatización. Una insiste en que la automatización del
de protecciones de seguridad social mal aplicadas, significa trabajo dará lugar a una ganancia neta para la sociedad
que el papel del trabajo de la plataforma habilitada para IA mayor productividad, crecimiento de la economı́a y creación
tiene un conjunto más complejo de implicaciones, que no de más empleos y demanda de trabajadores que compensar
se pueden leer a través de una lente centrada en los estados cualquier desplazamiento tecnológico que pasa a lo largo
unidos, y deben tener en cuenta las historias globales de del camino. El otro predice un Apocalipsis, donde los
colonialismo y desigualdad. robots finalmente se harán cargo de la fuerza laboral,
crearán un desempleo masivo, y servir sólo a los intereses
financieros de los que las poseen y los motores de nuestra
IA en tecnologı́as de contratación
economı́a. Lo que falta en ambas narrativas en conflicto es la
predicción más matizada de quién será perjudicado y quién se
Los sistemas de IA para gestionar y controlar a los beneficiará de la automatización laboral en los próximos años.
trabajadores también se están aplicando en la contratación,
dando forma rápida y activamente al mercado laboral y
Uno estudio del Instituto Brookings predice que ciertos
ayudando a determinar quién es apto para el trabajo y quién
grupos demográficos probablemente soportaran más la carga
no. La mayorı́a de los técnicos de contratación operan en
de adaptarse a la automatización laboral que otras, lo que
ausencia de reglas o requisitos especı́ficos para divulgar
implica que los beneficios de automatización no se comparten
su uso para la selección, clasificación y contratación de
con todos los trabajadores, sino que se acumulan para los
candidatos a los solicitantes de empleo cuyas vidas afectan
que están en la parte superior. Primero, el estudio encontró
estos sistemas de IA.
que los trabajadores con salarios más bajos son los que más
pierden debido a la automatización mientras los trabajadores
Debido a que los sistemas de inteligencia artificial a de cuello blanco probablemente no se vean afectados en
menudo codifican y reproducen patrones de sesgo dentro gran medida- Es probable que los efectos dispares de la
de categorı́as como çompetencia”, ”éxito .ajuste cultural”,
2
automatización de tareas también impliquen pérdidas de
el rápido despliegue de tales sistemas en la contratación trabajo desproporcionadas. Un estudio entre julio de 2019
ha aumentado significativamente la importancia de su uso. encontró que más de una cuarta parte de los trabajadores
De hecho, muchos investigadores sospechan que estas están en puestos de trabajo que podrı́an ser automatizadas en
herramientas probablemente exacerban la inequidad y 2030. Esto se traduce en una tasa de desplazamiento potencial
refuerzan la discriminación, creando lo que la estudiosa del 25.5 por ciento para los trabajadores latinos, tres puntos
legal Pauline Kim llama ”sesgo de clasificación”. Pero sin porcentuales más altos que el promedio nacional, el problema
un acceso significativo a estos sistemas y sus procesos, los también esta en que los investigadores no están totalmente
trabajadores carecen de la evidencia necesaria para cuestionar seguros de cuanto será el desplazamiento de trabajadores por
su uso, el estado de Illinois ya aprobó una ley que rechaza el el uso de IA.
secreto de estos sistemas la Ley de entrevistas de video de
inteligencia artificial exige que los empleadores notifiquen a
Los lı́mites de la ética corporativa de IA
los candidatos a empleos cuando se usa inteligencia artificial
en las entrevistas de video, proporcionen una explicación de
cómo funciona el sistema de IA y qué caracterı́sticas utiliza Los principios éticos y las declaraciones rara vez se
para evaluar la aptitud del solicitante posición, obtenga el centran en cómo la ética de la inteligencia artificial puede
consentimiento del solicitante para ser evaluado por AI antes ser implementado y si son efectivos. Del mismo modo,
de que comience la entrevista en video, limite el acceso a los tales declaraciones de ética de AI ignoran en gran medida
videos y destruya todas las copias del video dentro de los 30 preguntas sobre cómo, dónde y quién puede poner en práctica
dı́as de la solicitud del solicitante. dichas pautas. La gran mayorı́a de estos documentos fueron
generados por paı́ses y organizaciones en el Norte global.
Los estudiosos y los defensores han llamado cada vez más la
Es fundamental que los investigadores y defensores no
HUMANOS Y MAQUINAS INTELIGENTES 3

atención sobre la brecha entre los altos niveles declaraciones basados en clases bien comprobados que existen dentro de
y responsabilidad significativa. Los crı́ticos han identificado los laboratorios de IA se extienden hacia el exterior espacios
ideales contradictorios y vagos definiciones como barreras A menudo, esto da como resultado procesos descritos popu-
que impiden la operacionalización de los principios éticos larmente como el reemplazo de residentes pobres, de clase
en productos de IA marcos de desarrollo, implementación trabajadora y / o de alguna raza distinta a la caucásica por
y auditorı́a. Se dice que la IA no tiene una estructura o personas con más dinero y de raza blanca.
normas formales, no hay definiciones acordadas y metas
para el campo, además la ética de IA no tiene ninguna
supervisión externa o protocolos estándar para hacer cumplir
las barreras éticas. Esta falta de responsabilidad profesional y I-B. Un lector emocional de tu expresión facial
legal socava los enfoques de ética corporativa. Sin embargo,
incluso si uno cree que la ética corporativa de la inteligencia Debido a la creciente tendencia de cambiar emociones
artificial podrı́a ayudar a guiar mejores prácticas tecnológicas por emoticones o emojis la conferencista del video quiere
en algunos niveles, está claro que el cambio en el diseño, que se vuelvan a traer las emociones aplicadas al mundo
desarrollo e implementación de sistemas de IA en gran digital, inicia con una anécdota personal donde relata
medida Ocurre cuando las empresas ejercen presión sobre los que al ser estudiante extranjera en Cambridge su mayor
trabajadores, la prensa y los responsables polı́ticos Dadas las compañı́a era su computadora y que no podı́a expresar
preocupaciones de que las promesas éticas son inadecuadas sus emociones de manera clara, por tanto, se empezó a
ante las brechas de responsabilidad urgentes, muchos han preguntar si la tecnologı́a podrı́a interpretar las emociones
argumentado que los principios de derechos humanos, que se humanas y reaccionar en torno a estas. Esto la llevo a crear
basan en principios legales más establecidos interpretaciones tecnologı́a capaz de leer emociones a partir del rostro humano.
y prácticas, deben reemplazar la ”éticaçomo marco dominante
para las conversaciones sobre el gobierno y supervisión de la
El rostro es la parte del cuerpo humano que mas transmite
IA.
emociones, por medio de sus músculos y unidades de acciones
puede formar miles de emociones, a partir de esto se dice que
Los desarrolladores e investigadores de IA hacen las tecnologı́as no la tendrán fácil para leer estas emociones
determinaciones importantes que pueden afectar a miles ya que pueden ser a partir de cambios muy rápidos o muy
de millones de personas, y ayudarlos a considerar a quién numerosos, por tanto es importante que las computadoras
beneficia y perjudica la tecnologı́a es importante. Es evidente las diferencian bien, ası́, se introdujo miles de ejemplos
que las mejores prácticas de pruebas y de ingenierı́a, Basada de personas sonriendo para que a partir de esta muestra el
en la preocupación por las implicaciones de la IA, se necesitan programa pudiera aprender las caracterı́sticas comunes de
con urgencia. Sin embargo, centrarse en ingenieros sin tener las sonrisas y ası́ poder detectar si un rostro forma una. El
en cuenta la economı́a polı́tica más amplia dentro de qué IA programa funciona, lo cual se demuestra con una voluntaria
se produce y despliega corre el riesgo de responsabilizar a los del público.
actores individuales dentro de un sistema mucho más grande,
borrando asimetrı́as de poder muy reales. Los que están en la
A partir de la visión inicial de la presentadora se muestra
cima de las empresas Las jerarquı́as tienen mucho más poder
que ahora es una empresa, que puede funcionar en un teléfono
para establecer dirección y dar forma a la toma de decisiones
celular de manera adecuada, la tecnologı́a se basa en 12mil
éticas que investigadores y desarrolladores individuales.
millones de indicadores emocionales, una gran base de datos
Tal énfasis en la .educación éticarecuerda el impulso para
para el reconocimiento de emociones, la cual se recopilo a
el entrenamiento de ”sesgo inconscienteçomo una forma
partir de casi 3 millones de rostros en videos. A partir de
de ”mejorar la diversidad”. El racismo y la misoginia son
esta enorme base de datos se obtuvieron también algunas
tratados como sı́ntomas ı̈nvisibles”latentes en los individuos,
clasificaciones como que las mujeres son más expresivas que
no como problemas estructurales que se manifiestan en el
los hombres, o que no importa si la persona se encuentra
material inequidades
sola, esta también reacciona con emociones, como cuando se
observa un video gracioso.
Cómo las empresas de IA incitan al desplazamiento
geográfico
Pero estos datos también pueden ser utilizados para muchas
cosas más como la virilidad del internet y el comportamiento
Ası́ como se llenan los entornos de desarrollo de la inteli- del voto y de manera increı́ble se podrı́a dotar de emoción
gencia artificial y el aprendizaje automático con disparidades, a una máquina, se muestran ejemplos de elementos que
también lo son los paisajes urbanos más amplios en los que podrı́an ayudar a personas con algún tipo de discapacidad
tiene lugar su desarrollo. Ya sea dentro de grandes campus fı́sica o cognitiva a interpretar emociones con ayuda de estas
tecnológicos suburbanos o pequeñas empresas tecnológicas tecnologı́as, o en el ámbito de la educación y el estado de
urbanas, IA y máquinas Los entornos de aprendizaje nunca ánimo de las personas.
están contenidos dentro de los muros de la empresa, los sesgos la expositora cree que, dentro de algunos años, todos los
4 UNIVERSIDAD NACIONAL DE COLOMBIA, HUMANOS Y MAQUINAS INTELIGENTES

dispositivos tendrán un chip lector de emociones, por ello de los millones de usuarios que Susan la aplicación, No se
ella y su equipo liberaron esta tecnologı́a para que otros quiere que la democracia occidental se rompa más de lo que
desarrolladores puedan desarrollarla y ser creativos. Si bien está debido a la tecnologı́a, que las leyes se vuelvan más
es cierto que existen potenciales riesgos de abuso, ella hace obsoletas. La tecnologı́a inventada es increı́ble, pero ahora, es
una invitación a que se conozca la tecnologı́a y se entre en el usada para un crimen gigante y esta eliminando la posibilidad
debate para que en el futuro haya una mejor conexión entre de que exista un verdadero proceso democrático que sea
todos, aún dentro del espectro digital. limpio y transparente.

R EFERENCIAS
I-C. El papel de Facebook en el brexit y la amenaza a la [1] .AI Now Report 2019”, Ainowinstitute.org, 2019. [Online]. Available:
democracia https://ainowinstitute.org/AI-Now-2019-Report.pdf. [Accessed: 10- Abr-
2020].
[2] C. Cadwalladr, Facebook’s role in Brexit — and the threat to democracy.
Cuando ocurrió el brexit en junio de 2016, la conferencista 2019.
viajo a una ciudad llama Ebbw vale, donde hubo una votación [3] R. el Kaliouby, This app knows how you feel — from the look on your
mayoritaria por salir de la unión europea, lo cual no tiene face. 2015.
sentido debido a la importante inversión de la UE en esa
ciudad, por tal razón la autora se dio a la tarea de preguntar
a sus ciudadanos el porque de su voto, dando como respuesta
que ”la UE no habı́a hecho nada por ellos.o que estaban
cansados de los inmigrantes

Después, una ciudadana contacto a la conferencista y le


comento que en Facebook habı́an circulado varias cosas con
relación a la inmigración y a Turquı́a, y que eso era lo que
más habı́a influido en su votación, pero lo interesante era que
estos elementos que enuncia la señora ya no se podı́an ver
ya que eran prácticamente anuncios que desaparecı́an. Esos
datos solo los tiene Facebook y se ha negado a darlos. Mark
Zuckerberg se ha negado a ir al parlamento y mostrar estos
datos.

Existe un limite para gastar en tiempo de elecciones, lo


que facilitaba que no hubiera corrupción pero estos limites
no tienen valides en el ámbito digital, ya que en plataformas
como Google, Youtube o Facebook se puede gastar mucho
dinero para promocionar una marca o algo similar pero nadie
lo sabrá, se sabe que antes de la votación la campaña oficial
”Vote Leave”lavó casi 88 millones de euros; dinero ilegal,
del cual ya tiene conocimiento la policı́a, usado para pagar
propaganda falsas como que Turquı́a se iba a adherir a la UE
que solo vieron una pequeña franja de personas que identificó
como blancos perfectos para esta publicidad. Por lo cual se
dice que es el fraude electoral más grande del paı́s en los
últimos 100 años.

El Brexit y Donald Trump estaban ı́ntimamente ligados, se


sabe que es la misma gente, compañı́as, misma información,
mismas técnicas, y mismo uso del odio y del miedo, y su uso
en sus respectivas elecciones. Después de esta mención se
habla de la falsa propaganda que se puede ver en Facebook
y lo denomina un crimen de odio, y este odio se esta
esparciendo por el mundo a través de la tecnologı́a, como el
uso ilı́cito de perfiles en Facebook, su información personal y
sus datos. Por ultimo se hace un llamado a Facebook y a lo
que esta haciendo actualmente con el trato de la información

Potrebbero piacerti anche