La IA será clave para abordar los desafíos sociales, económicos y medioambientales a escala global. Sin embargo, también deben reconocerse sus limitaciones.
AI & Cities: Risks, Applications and Governance, un informe publicado por el Programa de las Naciones Unidas para los Asentamientos Humanos (ONU-Hábitat) en colaboración con el Instituto de Inteligencia Artificial Mila-Quebec, señala algunos de estos riesgos. "Para que un algoritmo razone, debe comprender su entorno", escriben los autores. "Esta comprensión se obtiene de datos. Por tanto, cualquier suposición y sesgo que se represente en el conjunto de datos se reproducirá también en el razonamiento del algoritmo y en el resultado que produzca".
Como se señaló anteriormente, la IA convierte los objetivos definidos por humanos en matemáticos. Pero si los objetivos definidos por humanos se basan en ideas preconcebidas existentes, entonces los datos terminarán reforzando esas suposiciones.
La IA también se queda corta en la evaluación de su propio rendimiento. Como señala el informe de ONU-Hábitat, "Si bien puede ser tentador ver a los algoritmos como 'pensadores' neutrales, no son ni neutrales ni pensadores". La IA no tiene una comprensión del contexto más amplio y, por lo tanto, solo puede producir resultados basados en sus objetivos de optimización predefinidos, que pueden estar en desacuerdo con consideraciones más amplias o, lo que es peor, satisfacer una finalidad engañosa.
Los sistemas de IA son matemáticos y no pueden integrar matices. Esto significa que, en ocasiones, la IA puede acabar excluyendo o subrepresentando la información subjetiva y cualitativa de sus hallazgos.