Three Recommendations for More Inclusive and Equitable AI in the Public Sector
Tres recomendaciones para el uso más incluyente y equitativo de la inteligencia artificial en el sector público
Around the world, public sector entities are increasingly exploring the use of algorithms with the aim of improving data-informed policies and decision-making. There is great potential for these systems to help correct for gender biases or target policy interventions to close equity gaps around financial access, hiring and recruitment, health or education policy, or open procurement design and decision-making.
But that same data can be used to actively or inadvertently design or train algorithms to discriminate against women, girls, and non-binary individuals who may otherwise qualify for a service, benefit, or loan. Governments and civil society partners are looking to better understand and address the gender-differentiated impacts of algorithms in open government and reduce human biases around genderOGP participating governments are bringing gender perspectives to popular policy areas, ensuring diversity in participatory processes, and specifically targeting gender gaps in policies to address gov..., race and ethnicity, class, age, and other demographics.
In the last Open Algorithms Network meeting, members came together to discuss this intersection of inclusion, open government, and artificial intelligence (AI). This meeting was co-chaired by the Government of Canada, with participation from the Governments of Estonia, Norway, the United Kingdom and Scotland as well as civil society respondents. Many around the virtual table have started considering issues of equality, bias, and discrimination in their algorithmic commitments in OGP action plans and across government AI strategies. Many of these commitments are grounded in the idea that opening data and design of algorithms is an avenue to reduce bias and discrimination, and that the process of collecting data or design is as important as the outcome. As Scotland’s action plan notes, “the way public services make decisions using data is as important as the data they publish. This includes the use of trustworthy, ethical and inclusive Artificial Intelligence, as outlined in Scotland’s AI Strategy.” Finland, for example, will prepare a general set of ethical guidelines for the government to ensure that AI systems are not embedded with directly or indirectly discriminatory models.
Algorithmic transparencyAccording to OGP’s Articles of Governance, transparency occurs when “government-held information (including on activities and decisions) is open, comprehensive, timely, freely available to the pub... More is an emerging commitmentOGP commitments are promises for reform co-created by governments and civil society and submitted as part of an action plan. Commitments typically include a description of the problem, concrete action... area for OGP members, with most commitments coming from Global North nations. Few explicitly reference gendered experiences rather than broader discrimination or bias. As AI technology becomes more available and embedded in government policy and procedures, open government actors need to be aware of the potential discriminatory issues from the start and build in open, transparent, and equitable approaches to help mitigate them.
Members of the Open Algorithm Network recommend that open government actors:
1. Open automation strategies and projects to the public to improve algorithmic transparency and accountability for more communities
Where possible, members may seek opportunities to establish measures through policy, law, regulationGovernment reformers are developing regulations that enshrine values of transparency, participation, and accountability in government practices. Technical specifications: Act of creating or reforming ..., or other reforms to advance algorithmic transparency. This may take the form of making algorithmic policies or strategies open and accessible to the public, publishing information about upcoming projects for review and comment, or proactively engaging impacted stakeholders around the design and use of algorithms.
In Canada, the Directive on Automated Decision-Making includes several transparency requirements including completing and publishing an Algorithmic Impact Assessment (AIA); providing notices and explanations to clients or the public before and after decisions; assuring access to the components of a system (e.g., for auditsInstitutional and legal frameworks are necessary for providing assurance of the integrity of financial information and of compliance with budgetary rules and procedure. Technical specifications: These... or investigations); releasing source code where appropriate; and documenting automated decisions. While the directive requires departments to test data used by automated systems for unintended bias, publishing the results of bias tests may be challenging due to risks to privacy, security, or intellectual property. Privacy protection for a small demographic group, for example, may come into conflict with efforts to openly test algorithms for bias, a process that could require sensitive personal information about people impacted by automation. While there are strategies to anonymize data like this, this tension can pose a challenge to developing a shared understanding of equitable and inclusive algorithmic transparency in the public sector.
Another opportunity is to connect national algorithmic strategies or policies to OGP commitments to improve their public engagement and consultation, as we’ve seen from members like Scotland and Canada. The Scottish Government has continued to open algorithmic programs through public challenges, such as a current challenge on AI and disability and inclusive access to public services.
2. Use assessments early in the design process to understand potential gender or inclusionOGP participating governments are working to create governments that truly serve all people. Commitments in this area may address persons with disabilities, women and girls, lesbian, gay, bisexual, tr... differences or test for unintended bias
Assessments and guidelines can be used to help public sector actors identify and mitigate risks of discrimination and other forms of inequality during a design stage of a project. These tools can include gender assessments like Canada’s GBA Plus, political economy analysis, or human rights impact assessments just to name a few. Members agreed that these are best deployed early in the process and used iteratively throughout the life of a policy or program.
The Government of Canada is looking to strengthen the Directive on Automated Decision-Making’s safeguards against discriminatory outcomes for historically marginalized individuals or groups. The ongoing third review of the directive proposes a new requirement mandating the completionImplementers must follow through on their commitments for them to achieve impact. For each commitment, OGP’s Independent Reporting Mechanism (IRM) evaluates the degree to which the activities outlin... of a Gender Based Analysis Plus during the development of modification of an automated system. This would foster an intersectional approach to the design of automation projects, allowing departments to consider multiple identity factors such as sex, gender, geography, and language when assessing the potential impacts of a system on individuals. The government is also working to expand the AIA to evaluate the potential impacts of automation projects on people with disabilitiesA government is not open unless it is accessible to all, and governments are working to ensure people with disabilities are afforded equitable services and opportunities to participate. Technical spec....
Similarly, in the UK , policies should undergo an Equality Impact Assessment, which can help identify opportunities to better promote equality or spot potential discrimination or negative effects of a policy or service. This covers a variety of protected demographics like age, disability, gender reassignment, marriage and civil partnership, pregnancy and maternity, race, religion or belief, sex, and sexual orientation.
In Finland, although existing law protects equality and non-discrimination, the government’s first AI Program assessment called for the adoption of ethical guidelines for developing algorithms and architectures to avoid biases and adverse effects on human dignity and equality. Their commitment proposes adopting new methods of data collection and use, provision of more high-quality open government data, revision of regulations, funding for long-term interdisciplinary research on the risks of AI, better AI awareness among government employees, and public discussions around AI.
Though ethical guidelines and assessments can provide critical insights to potential inclusion opportunities or blindspots in AI, they aren’t an end of themselves. AI systems – and the data that underpin them – also need to be regularly monitored to ensure quality and that results aren’t inadvertently biased against demographics like women and gender diverse individuals.
3. Use open dataBy opening up data and making it sharable and reusable, governments can enable informed debate, better decision making, and the development of innovative new services. Technical specifications: Polici... to achieve representative and accountable design while considering privacy and data management
Better open and gender-informed data can improve decision-making, transparency, and accountability around policymaking , budgets, and public services. This includes representative data that can feed algorithms and improve outcomes of automated decisions, along with better citizen-generated data. For example, Finland is enhancing public access to information by improving the quality and usability of open data.
When and how to use, analyze, and store sensitive data including sex, gender, and sexual orientation are ongoing privacy considerations. One potential solution proposed by the UK is the use of data intermediaries, trusted partners who can facilitate data access and sharing and support governments in managing some of this risk and potential bias mitigation. They can also enable individuals and entities to have greater insight into what data is collected and when and how it is used.
Looking Ahead on Inclusive AI
OGP will continue to explore this intersection of gender equality, equitable algorithmic design and use, and digital governanceAs evolving technologies present new opportunities for governments and citizens to advance openness and accountability, OGP participating governments are working to create policies that deal with the ... with the Open Algorithms Network and open government partners. Together, we’ll aim to identify interventions that can be adapted and shared across the Partnership and beyond for the development of gender-informed commitments on algorithmic policy and learn how open government processes can better support co-designing the use and regulation of algorithms that lead to more equitable policies and practice.
En todo el mundo, las instituciones del sector público están explorando cada vez más el uso de algoritmos con el fin de mejorar el diseño de políticas públicas y la toma de decisiones con base en datos. Estos sistemas tienen un gran potencial para ayudar a reducir el sesgo de género y para diseñar intervenciones de política que ayuden a cerrar las brechas sobre las políticas de acceso financiero, contratación, salud o educación, además de abrir el diseño de las contrataciones y la toma de decisiones.
Sin embargo, los datos pueden utilizarse, activa o involuntariamente para diseñar o programar a los algoritmos de manera que discriminen a las mujeres, niñas y personas no binarias y que no puedan ser elegibles para recibir un servicio, beneficio o préstamos. Los gobiernos y la sociedad civil están trabajando en entender mejor los impactos diferenciados por género de los algoritmos en los procesos de gobierno abierto y reducir los sesgos humanos de género, raza, etnia, clase, edad y otros grupos demográficos, y poder así atenderlos.
En la más reciente reunión de la Red de Algoritmos Abiertos, sus miembros se reunieron para discutir la intersección de la inclusión, gobierno abierto e inteligencia artificial (IA). Esta reunión fue copresidida por el Gobierno de Canadá, con participación de los Gobiernos de Estonia, Noruega, el Reino Unido y Escocia, así como representantes de la sociedad civil. Muchos de los participantes están empezando a considerar los temas de equidad, sesgo y discriminiación en los compromisos sobre algoritmos que han incorporado en sus planes de acción y en las estrategias de IA de sus gobiernos. Muchos de los compromisos están fundamentados en la idea que la apertura de los datos y el diseño de algoritmos puede reducir los sesgos y la discriminiación y que los procesos de colecta de datos y el diseño son tan importantes como el resultado. Como lo describe el plan de acción de Escocia, “la forma en la que los servicios públicos toman decisiones a través del uso de datos es tan importante como los datos publicados. Esto incluye el uso de inteligencia artificial confiable, ética e incluyente, como lo plantea la estrategia de IA de Escocia. Por ejemplo, Finlandia elaborará una serie de pautas éticas que permitirán al gobierno asegurar que los sistemas de IA no incluyan, directa o indirectamente, modelos discriminadores.
La transparencia de algoritmos es un compromiso emergente para los miembros de OGP (la mayoría de los compromisos han sido desarrollados en el norte global). Pocos de estos compromisos hacen referencia a género, sino más bien a la discriminación y sesgo en general. La IA es cada vez más disponible y cada vez se incorpora más en las políticas y procedimientos del gobierno, los actores de gobierno abierto deben ser conscientes de cualquier tema potencialmente discriminatorio desde el inicio e incorporar metodologías abiertas, transparentes y equitativas para ayudar a mitigarlas.
Los miembros de la Red de Algoritmos Abiertos recomiendan que los actores de gobierno abierto:
1. Abran las estrategias y proyectos de automatización al público para mejorar la transparencia y rendición de cuentas
Los miembros pueden buscar la oportunidad de establecer medidas, a través de políticas, leyes, regulaciones u otras reformas para impulsar la transparencia de los algoritmos. Esto puede lograrse a través de diseñar políticas y estrategias abiertas y accesibles al público; publicar información sobre los próximos proyectos o revisar, comentar y colaborar con las y los actores involucrados en el diseño y uso de los algoritmos.
En Canadá, la Dirección de Decisiones Automatizadas incluye diversos requisitos de transparencia, incluyendo la creación y publicación de una Evaluación de los Impactos de los Algoritmos (AIA por sus siglas en inglés); publicar explicaciones a las y los clientes o al público antes y después de tomar las decisiones; asegurar el acceso a los componentes del sistema (por ejemplo para auditorías o investigaciones); publicar el código fuente cuando sea apropiado y documentar las decisiones automatizadas. Aunque la dirección exige a los departamentos analizar los sistemas para asegurar que no incluyan sesgos no deseados, en ocasiones es difícil publicar los datos debido a riesgos de privacidad, seguridad o propiedad intelectual. Por ejemplo, la protección de la privacidad de un grupo podría entrar en conflicto con el análisis de los algoritmos en función de sesgos, proceso que podría involucrar información sensible sobre las personas impactadas por la automatización. Ya existen algunas estrategias para anonimizar este tipo de datos, pero esta tensión puede representar un reto al avance de la transparencia de los algoritmos en el sector público.
Otra oportunidad es vincular las estrategias o políticas nacionales acerca del uso de algoritmos con los compromisos de OGP para mejorar la participación y consulta ciudadana, como lo han hecho algunos miembros como Escocia y Canadá. El Gobierno de Escocia ha abierto los programas de algoritmos a través de espacios públicos como el reto sobre IA y discapacidades y acceso incluyente a los servicios públicos.
2. Incorporen análisis desde el inicio del proceso de diseño para conocer las posibles diferencias de género o inclusión y analizar que no incluyan sesgos no deseados
Existen evaluaciones y pautas que pueden ayudar al sector público a identificar y mitigar riesgos de discriminación y otras formas de desigualdad durante la fase de diseño de los proyectos. Ejemplos de estas herramientas son las evaluaciones de género como la herramienta GBA Plus de Canadá, análisis de política económica y las evaluaciones de impacto sobre los derechos humanos, por mencionar algunas. Los miembros acordaron que el mejor momento para el uso de estas herramientas es al inicio de los procesos y a lo largo de la vida de las políticas o programas.
El Gobierno de Canadá está trabajando en fortalecer las salvaguardas de la Dirección de Automatización que protegen contra la discriminación en contra de grupos y peronas históricamente marginadas. Actualmente, la directiva está realizando una tercera revisión y proponiendo un nuevo requisito que exija el uso de la herramienta de análisis de género durante el desarrollo o modificación de los sistemas automatizados. Esto podría ayudar a incorporar una estrategia interseccional al diseño de los proyectos de automatización, de manera que los departamentos sean capaces de considerar diferentes factores de identidad como el sexo, género o geografía e idioma cuando analicen los impactos potenciales de los sistemas en laspersonas. Además, el Gobierno está trabajando en ampliar la AIA para evaluar los impactos potenciales de los proyectos de automatización en las personas con discapacidades.
Asimismo, en el Reino Unido, las políticas tienen que ser evaluadas por su impacto en la equidad con el fin de identificar oportunidades para promover la equidad o identificar posibles acciones discriminatorias o impactos negativos de las políticas o servicios. Lo anterior abarca una variedad de grupos protegidos por razones como edad, discapacidades, reasignación de género, matrimonio y estado civil, embarazo y maternidad, raza, religión o creencia, sexo y orientación sexual.
En Finlandia, aunque las leyes protegen la equidad y la no discriminación, el primer programa del Gobierno para la evaluación de los programas de IA incluyó la adopción de pautas éitcas para el desarrollo de algoritmos y sistemas que eliminen sesgos e impactos negativos en la dignidad y equidad humana. Este compromiso propone la adopción de nuevos métodos para la colecta y uso de datos, la publicación de datos de gobierno abierto de mayor calidad, la revisión de las regulaciones, el financiamiento de investigaciones interdisciplinarias de largo plazo sobre los riesgos de la IA, la sensibilización sobre la IA entre las y los funcionarios y discusiones públicas sobre la IA.
Aunque la adopción de pautas éticas y evaluaciones puede generar información clave para la posible inclusión de oportunidades o puntos ciegos en la IA es útil, éstas no son un fin en sí mismas. Los sistemas de IA, así como los datos subyacentes, también deben ser monitoreados regularmente para asegurar su calidad y que sus resultados no incluyan sesgos en contra de grupos como las mujeres o personas sexualmente diversas.
3. Usen datos abiertos para lograr un diseño representativo y capaz de rendir cuentas en las consideraciones de privacidad y manejo de datos
Los datos abiertos y con información de género pueden ayudar a mejorar la toma de decisiones, transparencia y rendición de cuentas alrededor de las políticas públicas, presupuestos y servicios públicos. Lo anterior incluye datos representativos en el diseño de algoritmos y mejores resultados de las decisiones automatizadas, además de datos generados por la ciudadanía. Por ejemplo, Finlandia está mejorando el acceso a la información a través de mejorar la calidad y usabilidad de los datos abiertos.
Cuándo y cómo utilizar, analizar y almacenar datos sensibles, por ejemplo de sexo, género y orientación sexual, siguen siendo temas en discusión. Una posible solución propuesta por el Reino Unido es el uso de intermediarios de datos, es decir socios confiables que puedan facilitar el acceso y distribución de los datos para manejar en cierta medida este riesgo y posiblemente mitigar los riesgos de sesgos. Además, pueden ayudar a las personas y entidades a tener mayor información sobre qué datos se colectan y cómo y cuándo se utilizan.
El futuro de la inteligencia artificial incluyente
OGP seguirá estudiando la intersección de la equidad de género, diseño y uso equitativo de los algoritmos y la gobernanza digital a través de la Red de Algoritmos Abiertos y sus socios. Juntas y juntos, identificaremos intervenciones que podrán ser compartidas con los miembros de la Alianza y otros países para el desarrollo de compromisos con enfoque de género sobre políticas de algoritmos y entender cómo los procesos de gobierno abierto pueden apoyar el codiseño, uso y regulación de los algoritmos para llevar a políticas y prácticas más equitativas.
Comments (1)
Leave a Reply
Related Content
Algorithms and Human Rights: Understanding Their Impacts
Human rights algorithmic impact assessments have emerged as an accountability tool to identify potential harms, mitigate unintended impacts, and inform policy decisions on the use of algorithms across key policy…
Digital Governance in OGP
OGP countries are leveraging the opportunities of evolving technology, such as artificial intelligence, data-driven algorithms, and mass social networks, while also developing policies to deal with the threats, including disinformation,…
Gender in OGP
Open government reformers are joining forces with gender and inclusion advocates across the Partnership to better recognize and respond to the lived realities of women, girls, and those across the…
Prof Thuli Madonsela Reply
This is an encouraging development. At the Centre for Social Justice at Stellenbosch University (SU) we have been advocating for the use of sufficiently disaggregated data for prospective social justice or equality impact assessment of planned laws, policies and social schemes at the point of design, in addition to the normal impact assessments done during and after implementation. The disparate Covid-19 containment measures such as lock down and compensatory socio-economic support packages has been a gift in highlighting the importance of foresight impact assessments. This purpose and all process and AI leveraging measures require adequately disaggregated data and equity attuned machine learning. We would love to collaborate.