Nuestro nuevo conjunto de herramientas plantea preguntas críticas sobre las tecnologías gubernamentales.
mayo 28, 2020

Written by The Global School for Social Leaders

We a multi-awarded NGO specialized in holistic and disruptive education for purpose-driven leaders and innovators.

Si llegaste a la página de The Global School for Social Leaders , déjanos presentarnos, somos una multi-premiada ONG con sede en Viena, Austria, y Berlín, Alemania, especializada en educación holística y disruptiva para líderes e innovadores sociales. El contenido publicado aquí es verificado y seleccionado periódicamente para inspirar tu pensamiento, entendimiento y proactividad.

Puedes Ver nuestros programas AQUÍ , o seguirnos en:

 

¡Disfruta la lectura y tu día! 🙂


Logotipo del kit de herramientas de equidad algorítmica

Como en muchos países, el gobierno del Reino Unido se apresura a adoptar enfoques tecnológicos para la crisis del coronavirus. 

El gobierno persigue enfoques internos basados ​​en software, así como asociaciones con importantes empresas tecnológicas como Apple y Google (del programa de espionaje internacional Five Eyes), y la firma de vigilancia respaldada por la CIA Palantir.

Estos desarrollos plantean preocupaciones sobre cómo los datos recopilados para la respuesta a la crisis pueden causar más daño que bien. 

Las tecnologías de coronavirus se pueden usar para otros fines, como hacer cumplir las leyes penales o las leyes de migración; la aplicación desigual puede impactar de manera desigual a los grupos marginados; y dedicar recursos sustanciales a tecnología no probada o ineficaz presenta un costo de oportunidad sustancial.

 

Con el uso cada vez mayor de tecnologías invasivas de vigilancia digital consideradas y desplegadas en este momento, el público debe estar preparado para responsabilizar al gobierno por la adopción imprudente de tecnologías que amenazan la libertad civil y la justicia social. Las preguntas críticas clave sobre intenciones y salvaguardas deben plantearse continuamente a los vendedores, los encargados de formular políticas y las agencias gubernamentales.

Hoy, el Oxford Internet Institute está lanzando un nuevo juego de herramientas para hacer precisamente eso: el Juego de herramientas de equidad algorítmica .

El Algorithmic Equity Toolkit (AEKit) es una nueva iniciativa del investigador de OII, Peaks Krafft , junto con su colectivo de investigación el Critical Platform Studies Group , la American Civil Liberties Union of Washington (ACLU-WA) y la Universidad de Washington Data Science para Buen programa social .

El AEKit incluye cuatro componentes que se pueden usar para comprender mejor la inteligencia artificial (IA) y las tecnologías de vigilancia, y que se pueden usar para apoyar la formulación de preguntas críticas sobre esas tecnologías:

(1) un diagrama de flujo para identificar la IA ,

(2) una lista de definiciones clave ,

(3) una hoja de trabajo para pensar a través de las partes interesadas involucradas en una tecnología

(4) una lista de preguntas críticas para hacer sobre IA o software de vigilancia .

“Se están adoptando herramientas invisibles, poderosas y a menudo sesgadas sin supervisión pública o responsabilidad para tomar decisiones importantes, e incluso de vida o muerte, incluso si obtiene un trabajo o una vivienda, lo que paga por la atención médica, cómo es su comunidad vigilado, cuánta fianza se establece y cuánto dura su condena «.

Dijo Jennifer Lee, Gerente de Tecnología y Libertad de ACLU-WA. «Ser capaz de identificar sistemas de decisión automatizados y sus impactos es un primer paso importante para intervenir en su uso».

Peaks Krafft, Meg Young y Mike Katell, del Grupo de Plataforma de Estudios Críticos, dijeron: “Diseñamos conjuntamente este conjunto de herramientas con defensores de la comunidad para ampliar sus esfuerzos para exponer las amenazas planteadas por las nuevas tecnologías digitales. Alentamos a cualquier persona preocupada por la equidad a utilizar este nuevo recurso para plantear preguntas críticas sobre la supervisión de la tecnología a sus representantes locales, legisladores y funcionarios gubernamentales «.

 

Dr. Peaks Kraft 

Es investigador principal de la OII en la División de Ciencias Sociales de la Universidad de Oxford. La investigación, la enseñanza y la organización del Dr. Krafft tienen como objetivo unir la informática, las ciencias sociales y el trabajo del sector de interés público hacia los objetivos de responsabilidad social y justicia social. El Dr. Krafft persigue múltiples programas para este fin.