Es cierto que ha habido avances en torno a la protección de datos en EE. UU. gracias a la aprobación de varias leyes, como la Ley de Privacidad del Consumidor de California ( CCPA ), y documentos no vinculantes, como el Blueprint for an AI Bill of Rights . Sin embargo, actualmente no existen regulaciones estándar que dicten cómo las empresas de tecnología deben mitigar el sesgo y la discriminación de la IA.
Como resultado, muchas empresas se están quedando atrás en la creación de herramientas éticas que priorizan la privacidad. Casi el 80 % de los científicos de datos en los EE. UU. son hombres y el 66 % son blancos, lo que muestra una falta inherente de diversidad y representación demográfica en el desarrollo de herramientas de toma de decisiones automatizadas, lo que a menudo conduce a resultados de datos sesgados.
Se necesitan mejoras significativas en los procesos de revisión del diseño para garantizar que las empresas de tecnología tengan en cuenta a todas las personas al crear y modificar sus productos. De lo contrario, las organizaciones pueden correr el riesgo de perder clientes ante la competencia, empañar su reputación y correr el riesgo de demandas judiciales graves. Según IBM, alrededor del 85% de los profesionales de TI creen que los consumidores seleccionan empresas que son transparentes sobre cómo se crean, administran y utilizan sus algoritmos de IA. Podemos esperar que este número aumente a medida que más usuarios continúen oponiéndose a la tecnología dañina y sesgada.
Entonces, ¿qué deben tener en cuenta las empresas al analizar sus prototipos? Aquí hay cuatro preguntas que los equipos de desarrollo deben hacerse:
¿Hemos descartado todo tipo de sesgo en nuestro prototipo?
Para crear una tecnología eficaz y libre de sesgos, los equipos de IA deben desarrollar una lista de preguntas para hacer durante el proceso de revisión que pueda ayudarlos a identificar posibles problemas en sus modelos.
Hay muchas metodologías que los equipos de IA pueden usar para evaluar sus modelos, pero antes de hacerlo, es fundamental evaluar el objetivo final y si hay grupos que puedan verse afectados de manera desproporcionada por los resultados del uso de la IA.
La tecnología tiene la capacidad de revolucionar la sociedad tal como la conocemos, pero finalmente fracasará si no beneficia a todos de la misma manera.
Por ejemplo, los equipos de IA deben tener en cuenta que el uso de tecnologías de reconocimiento facial puede discriminar inadvertidamente a las personas de color, algo que ocurre con demasiada frecuencia en los algoritmos de IA. La investigación realizada por la Unión Estadounidense de Libertades Civiles en 2018 mostró que el reconocimiento facial de Amazon coincidió incorrectamente con 28 miembros del Congreso de EE. UU. con fotografías policiales. Un asombroso 40% de las coincidencias incorrectas fueron personas de color, a pesar de que solo representan el 20% del Congreso.
Al hacer preguntas desafiantes, los equipos de IA pueden encontrar nuevas formas de mejorar sus modelos y esforzarse por evitar que ocurran estos escenarios. Por ejemplo, un examen minucioso puede ayudarlos a determinar si necesitan ver más datos o si necesitarán a un tercero, como un experto en privacidad, para revisar su producto.
Plot4AI es un gran recurso para aquellos que buscan comenzar.
¿Hemos reclutado a un profesional o defensor de la privacidad designado?
Debido a la naturaleza de su trabajo, los profesionales de la privacidad han sido vistos tradicionalmente como barreras para la innovación, especialmente cuando necesitan revisar cada producto, documento y procedimiento. En lugar de ver un departamento de privacidad como un obstáculo, las organizaciones deberían verlo como un habilitador crítico para la innovación.
Las empresas deben tener como prioridad contratar expertos en privacidad e incorporarlos en el proceso de revisión del diseño para que puedan garantizar que sus productos funcionen para todos, incluidas las poblaciones desatendidas, de una manera segura, que cumpla con las regulaciones y libre de prejuicios.
Si bien el proceso para integrar a los profesionales de la privacidad variará según la naturaleza y el alcance de la organización, existen algunas formas clave de garantizar que el equipo de privacidad tenga un asiento en la mesa. Las empresas deben comenzar poco a poco, estableciendo un conjunto simple de procedimientos para identificar cualquier actividad de procesamiento nueva, o cambios en las existentes, relacionadas con la información personal.
La clave del éxito con estos procedimientos es socializar el proceso con los ejecutivos, así como con los gerentes de producto e ingenieros, y asegurarse de que estén alineados con la definición de información personal de la organización. Por ejemplo, aunque muchas organizaciones generalmente aceptan direcciones IP e identificadores de dispositivos móviles como información personal, los modelos y estándares obsoletos pueden categorizarlos como «anónimos». Las empresas deben tener claro qué tipos de información califican como información personal.
Además, las organizaciones pueden creer que la información personal utilizada en sus productos y servicios presenta el mayor riesgo y debe ser la prioridad para las revisiones, pero deben tener en cuenta que otros departamentos, como recursos humanos y marketing, también procesan grandes cantidades de información personal. .
Si una organización no tiene el ancho de banda para contratar a un profesional de privacidad para cada departamento, debe considerar designar a un campeón o defensor de la privacidad que pueda detectar problemas y derivarlos al equipo de privacidad si es necesario.
¿Está involucrado nuestro departamento de personas y cultura?
Los equipos de privacidad no deberían ser los únicos responsables de la privacidad dentro de una organización. Todo empleado que tenga acceso a información personal o tenga un impacto en el procesamiento de información personal es responsable.
Expandir los esfuerzos de reclutamiento para incluir candidatos de diferentes grupos demográficos y varias regiones puede traer diversas voces y perspectivas a la mesa. La contratación de empleados diversos tampoco debe detenerse en los roles de nivel inicial y medio. Un equipo de liderazgo diverso y una junta directiva son absolutamente esenciales para servir como representantes de aquellos que no pueden asistir a la sala.
Los programas de capacitación en ética, privacidad e inteligencia artificial en toda la empresa pueden respaldar aún más una cultura inclusiva, al mismo tiempo que crean conciencia sobre la importancia de los esfuerzos de diversidad, equidad e inclusión (DEI). Solo el 32% de las organizaciones requieren una forma de capacitación DEI para sus empleados, lo que enfatiza cómo se necesitan mejoras en esta área.
¿Nuestro prototipo se alinea con el Plan de la Declaración de Derechos de AI?
La administración de Biden emitió un Plan para una Declaración de derechos de IA en octubre de 2022, que describe los principios clave, con pasos detallados y recomendaciones para desarrollar una IA responsable y minimizar la discriminación en los algoritmos.
Las pautas incluyen cinco protecciones:
- Sistemas seguros y efectivos.
- Discriminación algorítmica.
- Privacidad de datos.
- Aviso y explicación.
- Alternativas humanas, consideración y respaldo.
Si bien la Declaración de derechos de la IA no impone ninguna métrica ni plantea regulaciones específicas sobre la IA, las organizaciones deben considerarla como una línea de base para sus propias prácticas de desarrollo. El marco se puede utilizar como un recurso estratégico para las empresas que buscan aprender más sobre la IA ética, mitigar el sesgo y dar a los consumidores control sobre sus datos.
El camino hacia la IA que prioriza la privacidad
La tecnología tiene la capacidad de revolucionar la sociedad tal como la conocemos, pero finalmente fracasará si no beneficia a todos de la misma manera. A medida que los equipos de IA dan vida a nuevos productos o modifican sus herramientas actuales, es fundamental que apliquen los pasos necesarios y se hagan las preguntas correctas para asegurarse de haber descartado todo tipo de sesgo.
La creación de herramientas éticas que prioricen la privacidad siempre será un trabajo en progreso, pero las consideraciones anteriores pueden ayudar a las empresas a dar pasos en la dirección correcta.