Una aproximación básica a los conceptos y las técnicas de IA
La IA es un concepto sobre el que no existe una definición formal aceptada universalmente. No obstante, existen muchas aproximaciones que surgen de observar las definiciones encontradas en la web y publicaciones especializadas, a partir de las cuales es posible reunir algunas características comunes mencionadas con frecuencia para la IA: i) apreciar el contexto para establecer el marco de una tarea; ii) procesar datos estructurados y no estructurados sobre el problema en cuestión; iii) generar a partir de éstos un modelo de la realidad; y iv) predecir en base a este esquema un resultado relevante para el problema a resolver. En algunos casos, sobre este último punto se habla de toma de decisiones, aunque en realidad y a pesar del grado de autonomía de la IA, los resultados obtenidos por estos sistemas siempre deben quedar sujetos a la supervisión humana.
Si bien se trata de un campo en constante evolución que está definiendo nuevas formas de relación entre la técnica y los humanos, en forma más natural o intuitiva la Real Academia Española ha definido a la IA como «la disciplina científica que se ocupa de crear programas informáticos que ejecutan operaciones comparables a las que realiza la mente humana, como el aprendizaje o el razonamiento lógico.»
El Aprendizaje
Automático (AA) o Machine Learning es
una técnica que es un subconjunto de la IA, que enseña a las máquinas a
aprender de la experiencia sin una programación explícita. De este modo, los
algoritmos del AA se ejercitan por medio de métodos computacionales para
extraer información a partir de los datos, siendo una consecuencia lógica de la
aplicación de esta técnica, que los mismos se vayan perfeccionando en su
capacidad predictiva en la medida que se van alimentando con nuevos datos para
el aprendizaje.
A su vez el AA tiene dos variantes o ramas, una supervisada y la otra no supervisada. Con la primera el AA se entrena con datos de entrada y de salida que no son brutos sino que están etiquetados o preparados previamente, en tanto que con la segunda el entrenamiento de modelos de datos se hace sin procesar y sin etiquetar. El AA supervisado se utiliza para clasificar asignando con precisión a los datos de entrada categorías específicas, y para realizar análisis de regresión para establecer la relación entre variables dependientes e independientes. El AA no supervisado se emplea para agrupar datos que presenten similitudes y luego segmentarlos y separarlos por grupos para realizar análisis de datos preliminares. Esta variante tiene aplicaciones en la segmentación de imágenes para clasificar píxeles similares, facilitando la identificación de objetos y, en general, la interpretación de su contenido.
Una forma especializada del AA es el Aprendizaje Profundo (AP) o Deep Learning que utiliza Redes Neuronales. Es una tecnología que se inspira en la forma en que funciona el cerebro humano y que aprende empleando grandes volúmenes de datos o big data. Los algoritmos creados por el AP pueden detectar en forma autónoma información y patrones ocultos en los datos para entregar resultados en forma de predicción. Las principales diferencias entre el AA y el AP se muestran en la siguiente tabla:
Aspecto |
Aprendizaje
Automático |
Aprendizaje
Profundo |
Datos
de entrada u observados |
Opera con conjuntos
de datos pequeños |
Trabaja con grandes
volúmenes de datos |
Resolución
de problemas |
Requiere más
intervención humana para ajustes y correcciones. Se apoya en datos
estructurados (*). Los procesos y la selección de elementos necesitan
intervención humana y experiencia en el dominio de aplicación. |
Aprende
por sí mismo con base en la red neuronal. El proceso de extracción de
información es automatizado y maneja datos no estructurados (**). Las redes
aprenden a identificar características y patrones directamente a través de
los datos, reduciendo la necesidad de intervención humana. |
Interpretabilidad |
Más fácil de rastrear
y comprender el proceso de toma de decisiones. Los modelos de AA son más
transparentes, permitiendo una mayor interpretabilidad de cómo los datos de
entrada son convertidos en datos de salida o resultados. |
Conocido por ser una
«caja negra», por tratarse de modelos de entramado complejos, donde el
proceso de toma de decisiones no resulta fácilmente interpretable debido a
las múltiples capas y a la complejidad de la arquitectura. |
Tiempo
de entrenamiento |
Requiere un tiempo de
entrenamiento más corto, aunque arroja resultados de menor precisión |
Requiere un tiempo de
entrenamiento más largo y ofrece mayor precisión en los resultados |
Poder
computacional |
Necesita de escasos
recursos informáticos |
Necesita de una gran
capacidad de procesamiento |
Fuente: Basada en Chornyi, A. (2023)
Paralelamente al crecimiento exponencial de los datos en las últimas décadas, acompañado por una mayor capacidad de procesamiento informático y por herramientas y programas de tratamiento y análisis de datos, aplicaciones y plataformas, ha ido emergiendo una nueva disciplina como una respuesta para aprovechar el potencial de los mismos. Dicha área de conocimiento se conoce como Ciencia de los Datos que combina matemáticas y estadística, programación especializada, análisis avanzado, IA y AA con experiencia en temas específicos para descubrir conocimientos prácticos ocultos en los datos (IBM (a), s/f).
Áreas de aplicación
La aplicación de IA en el campo de los datos geoespaciales es conocida como IA geoespacial o GeoAI por sus siglas en idioma inglés. En ese contexto se han desarrollado herramientas para implementar soluciones a escala destinadas a la generación automatizada de datos, a través del desarrollo de algoritmos ajustados al problema a resolver o con modelos preentrenados.
Actualmente existen dos áreas focales –no las únicas- en las cuales los catastros pueden aprovechar los avances de la IA, el AA y el AP estas son: la teledetección y las valuaciones masivas. Comenzando por la primera, se aclara que el término teledetección es utilizado con alcance a las imágenes digitales provistas a través de diferentes plataformas: drone, avión y satélite. Los principales programas comerciales y libres disponen de herramientas GeoAI para la realización de diferentes operaciones, a continuación veremos someramente cuales son las variantes utilizadas.
El proceso de extracción de información a partir de imágenes tiene cuatro variantes o ramas: la segmentación semántica, la detección de objetos, la segmentación de instancias y la clasificación. La primera se utiliza para dividir una imagen en un conjunto de clases, siendo los mapas de uso y cobertura del suelo su producto típico. Todos los píxeles que componen una imagen se asignan a una de varias clases, por ejemplo, cuerpos de agua, bosques, cultivos, áreas urbanizadas, etc. En cambio la detección de objetos utiliza las características y coordenadas del entorno para definir un tipo de objeto del resto de la imagen, por ejemplo, los edificios. La segmentación de instancias constituye un híbrido entre las técnicas de segmentación semántica y detección de objetos. El objetivo de la clasificación de imágenes -históricamente asociada a la teledetección- es el mismo que el de la segmentación semántica y tiene dos métodos: supervisada y no supervisada. A través de la primera es posible decidir las clases a asignar a los píxeles, en tanto que en la segunda se deja a criterio del clasificador automatizado que clases estarán presentes en la imagen.
La detección de objetos
es la operación que resulta de interés particular para los catastros y la
veremos a través de un ejemplo práctico. Mapflow
es un complemento (plugin) para
QGIS, que desde imágenes seleccionadas de un proveedor en la web o de la carga
de una propia, permite extraer edificios, caminos, bosques y construcciones
(obras en ejecución). La operación es sencilla, primero hay que indicar el área
de interés (AOI) y seleccionar el modelo de IA que detectará los contornos de
los objetos y los digitalizará automáticamente. Una vez finalizado el
procesamiento, los resultados pueden ser descargados como una capa SIG
vectorial, que es posible editar para ajustar los errores que se hayan
observado a partir de una inspección visual.
Ejemplo de procesamiento en zona perirubana con modelo Buildings (Aerial Imagery) Fuente: https://docs.mapflow.ai/userguides/pipelines.html#id4
Mapflow dispone de
la opción Buildings con la cual es
posible extraer los polígonos correspondientes a los techos de los edificios
tomando como base imágenes satelitales de alta resolución de 50 cm. de píxel.
Se utilizan tres modelos diferentes para distintas regiones geográficas para
adaptarse mejor a los entornos urbanos del mundo, la decisión es automática
según la ubicación del AOI. Adicionalmente Buildings
(Aerial Imagery) realiza la misma
operación pero a partir de imágenes aéreas de 10 cm. de píxel (esta opción no
es gratuita). A través de la opción Roads
se pueden capturar los ejes de calles y caminos. Sobre estos últimos dos modelos
debe señalarse que son más adecuados para aplicar a zonas periurbanas y rurales
(Mapflow, s/f).
Algunas empresas como ESRI © y Picterra © disponen de aplicaciones que permiten entrenar modelos de AP para hacer una “sintonía fina” con el entorno en el que deben operar. Por ejemplo, no se puede esperar que un modelo obtenga resultados de buena calidad cuando fue entrenado con datos de una región tropical para imágenes de resolución media, cuando vamos a utilizarlo en la Patagonia con imágenes de alta resolución. De manera que los factores a considerar incluyen la región geográfica, el paisaje predominante, la estación, la resolución de las imágenes, los materiales constructivos, etc. Hay situaciones que requerirán la creación de un modelo desde cero o bien ajustar el modelo existente con nuevos datos para mejorar sus resultados. Si el modelo de IA que estamos utilizando no identifica adecuadamente los objetos de nuestro interés, es necesario entrenar un nuevo modelo para ajustarlo a nuestros requerimientos de manera tal de obtener resultados más alineados con nuestro entorno de trabajo.
Con esto queremos decir que los procedimientos automatizados de obtención de vectores a partir de imágenes, como la extracción de huellas de edificios, se trata de un reconocimiento complejo que demanda adecuaciones para los algoritmos dadas las propiedades geométricas y espectrales del objeto, junto a otras características de detalle como bordes, esquineros y sombras asociadas a los edificios. La operación para la extracción automática de edificios y otros objetos, es en definitiva una tarea abierta a la investigación que se inscribe en la actualización y modernización catastral, en la cual los algoritmos de AP resultan los más prometedores para superar las dificultades de extraer características semánticas de escenas complejas y grandes diferencias en la apariencia de los edificios (Jovanovic, D., et. al., 2021). Luego sigue el proceso para recoger sus atributos o características constructivas, para lo cual hay que realizar inspecciones en el terreno combinadas con recursos provenientes de la aplicación Google Street Wiew. Respecto al tratamiento de las alturas de los edificios, es posible recurrir a modelos digitales de elevaciones obtenidos a partir de vuelos con drone, vuelos fotogramétricos tradicionales o imagenes satelitales de alta resolución en modo estereoscópico.
La detección de cambios es otra técnica muy importante en el ámbito del catastro, ya que permite monitorear y gestionar las altas, bajas y modificaciones en el ambiente construido, a partir de una interpretación de imágenes tomadas en distintas fechas sobre la misma área y así obtener los objetos que han cambiado en un determinado período temporal e incorporarlos a la base de datos catastrales. Las operaciones de AP permiten realizar análisis multitemporales para detectar cambios en los elementos de interés y producir como resultado una salida con los cambios observados.
La otra área en la que la IA viene demostrando realizar un aporte significativo es en el de las valuaciones masivas que, respecto a los métodos utilizados tradicionalmente por los catastros, hacen una diferencia en cuanto a costo, eficiencia, velocidad y mantenimiento.
En la provincia de Córdoba, se viene aplicando desde hace 6 años una metodología para obtener los valores catastrales de más de dos millones de inmuebles urbanos y rurales, mediante la aplicación técnicas algorítmicas cuyas ventajas son su capacidad de manejar grandes volúmenes de datos, el elevado nivel de predicción, así como la factibilidad de sostener y repetir este tipos de estudios periódicamente (Scardino, L., 2023). En este mismo sentido, aunque con distintas herramientas de AA respecto al caso de Córdoba, se ha documentado un caso práctico en tres localidades de la provincia de Mendoza (Polo, R. E., et. al., 2023).
La aplicación de la técnica de AA y de su especialización el AP para la elaboración de modelos predictivos, está subordinada a dos insumos fundamentales: 1) los datos observados o de referencia o variables dependientes, y 2) los elementos que contribuyen a la explicación de los valores observados o variables independientes. El primero requiere disponer de un gran volumen de datos sobre el precio de la tierra urbana y rural del mercado inmobiliario; en tanto que el segundo necesita de parámetros que tienen que ver con el contexto, con las características zonales y tipo de bienes, con el acceso a servicios públicos, zonas comerciales y transporte en las áreas urbanizadas; y con la capacidad productiva, la distancia a rutas, distancia a fuentes de agua y distancia a centros de acopio en las áreas rurales. Las variables señaladas son solo ejemplos, pudiendo variar algunas de acuerdo a la jurisdicción, legislación vigente y mercado en que se apliquen.
Los algoritmos se
entrenan con los datos observados que representan valores cuantitativos y
cualitativos del mercado que se administran en el Observatorio del Mercado
Inmobiliario (OMI), y con las variables explicativas del valor determinadas a
través de análisis espaciales en un SIG, a fin de establecer las relaciones
matemáticas que existen entre ambos conjuntos de datos para extraer
conocimiento de ellas. Una vez establecidas estas relaciones, se evalúa la
calidad de los resultados y se iteran los procesos para ajustar los valores de
salida respecto a los valores observados, para arribar a los valores unitarios
probables interpolados y volcados en un mapa continuo del territorio.
Debe considerarse que cualquier cambio o transformación que se decida emprender para aplicar métodos de valuación masiva automatizada basados en la IA u otros métodos, requiere la disponibilidad de un adecuado volumen de muestras representativas para desarrollar modelos que ofrezcan resultados confiables y de calidad. Es que toda valuación debe partir de los datos observados porque son los que en definitiva contribuyen a dar forma al conocimiento de cómo se comporta un mercado inmobiliario. Aunque no siempre sea posible obtener muestras sobre todo el universo de inmuebles y distribuidas homogéneamente en todo el territorio, y aún cuando determinados algoritmos pueden realizar una gestión robusta del modelo con datos de entrada faltantes, el OMI es el primer gran paso que hay que dar, tarea para la cual se debe valorar y calibrar el esfuerzo organizativo, técnico-administrativo y de sostenibilidad que sobreviene a su implementación.
Datos del Observatorio del Mercado Inmobiliario (OMI) de la Provincia de Córdoba. Fuente: https://www.mapascordoba.gob.ar/#/geoservicios
Mapa de valor de la
Tierra Rural 2023. Fuente: https://mapascordoba.gob.ar/viewer/mapa/469
Para concluir, y como comentario general podemos decir que la adopción de las herramientas descritas requiere un rediseño de los procesos de trabajo que permitan adaptarlos al funcionamiento de la organización, siempre con vista a obtener una ventaja comparativa desde el punto de la eficiencia, calidad de resultados y agilidad en los procesos de gestión y mantenimiento de datos. Por otro lado, es fundamental realizar controles sobre la confiabilidad de los modelos de IA utilizados, para lo cual es necesario realizar evaluaciones cualitativas de los resultados para identificar eventuales deficiencias y aspectos de mejora.
Gobierno de la IA
En términos generales, el tema está relacionado con la ética en los usos y aplicaciones de las tecnologías relacionadas con la IA, y en particular se encuentra referido al conjunto de prácticas, procesos y herramientas que contribuyen a que una organización utilice la IA de forma transparente y confiable, tratándose por ello de un requisito indispensable para implementar soluciones funcionales y operativas. De esta manera es fundamental considerar que para incorporar satisfactoriamente el uso de la IA en una organización, se deban atender los siguientes aspectos:
- Trazabilidad, lo que implica poder rastrear desde el origen los datos de referencia, el modelo de IA y su idoneidad para abordar el problema en tratamiento, y la forma en que se evalúa la calidad de los resultados obtenidos.
- Explicabilidad, que está en relación con la capacidad de la organización para explicar cómo y porqué el modelo de IA llega a los resultados que produce. Dicho con otras palabras, es imprescindible tener el control sobre la manera en que se llega a resultado determinado, lo que significa poner luz en la caja negra del procesamiento algorítmico, es decir en su interpretabilidad. Esta cuestión es particularmente relevante para los métodos de valuación masiva basados en la IA.
- Supervisión, la organización debe tener el control de todos los procesos automatizados y de supervisar en forma permanente los resultados obtenidos, para aplicar las correcciones a los datos o al modelo de IA en caso de que se obtengan resultados sesgados o errores sistemáticos y/o errores atípicos.
- Responsabilidad, en las tareas de producción con modelos de IA se requiere que cada proceso tenga una persona responsable, de modo de asegurar el control y la prevalencia de las decisiones humanas.
- Normatividad, las organizaciones deben regular formalmente la ética en relación al uso de la IA sobre los aspectos mencionados precedentemente. Asimismo es recomendable incluir en la normativa todo lo relacionado al registro de cambios en las herramientas tecnológicas de la IA y en el tratamiento y manejo de incidentes y riesgos.
En definitiva, todas estas medidas resultan oportunas para establecer diferencias entre la ejecución atribuida a la autonomía decisional de los algoritmos, y la responsabilidad humana, hecho que parte de concebir a la IA como una cosa, un medio artificial para conseguir objetivos humanos pero que no deben confundirse con una persona humana. Es decir, el algoritmo puede ejecutar, pero la decisión debe necesariamente recaer sobre la persona y por lo tanto, también la responsabilidad (Rep. Argentina, Jefatura de Gabinete de Ministros, Secretaría de Innovación Pública, 2023). Esto de ningún modo significa actuar con recelo frente a la IA, sino que debemos mantenernos reflexivos sobre su gestión e impacto y nunca dejar de ejercer nuestro sentido crítico.
Referencias:
(*) Datos
estructurados: son aquellos que requieren de la intervención humana para
etiquetarlos, tales como las construcciones o edificios, rutas, calles, etc., y
así puedan ser reconocidos por el algoritmo.
(**) Datos no
estructurados: son aquellos que intervienen en el entrenamiento del modelo de
AP para identificar los objetos de interés a través de las capas de la red
neuronal para obtener identificadores que permitan clasificar dichos objetos.
Fuentes consultadas y referencias:
Chornyi, Andrii (2023). Deep Learning vs. Machine Learning, https://codefinity.com/blog/Deep-Learning-vs-Machine-Learning
IBM (a) (s/f). What is Data Science?, https://www.ibm.com/topics/data-science
IBM (b) (s/f). ¿Qué es la segmentación semántica?, https://www.ibm.com/es-es/topics/semantic-segmentation
IBM (c) (s/f). ¿Qué es la segmentación de instancias?, https://www.ibm.com/es-es/topics/instance-segmentation
Jovanovic, D.; Gavrilovic, M.; Sladic, D.; Radulovic, A.; Govedarica, M. (2021). Building Change Detection Method to Support Register of Identified Changes on Buildings,https://www.mdpi.com/2072-4292/13/16/3150
Polo, R. E.; Alberdi, R. & Erba, D. A. (2023). Aplicación de técnicas de Machine Learning para Valuación Masiva de Inmuebles en ciudades intermedias de la provincia de Mendoza, https://www.repositorio.umaza.edu.ar/icu/article/view/428. Revista ICU. Investigación, Ciencia y Universidad (ICU), Vol. 7 Núm. 9 (2023): N° 9, pp. 74-86.
Real Academia Española (2023). Diccionario de la lengua española. Edición tricentenario. Actualización 2023, https://dle.rae.es/inteligencia?m=form#2DxmhCT
República Argentina. Jefatura de Gabinete de Ministros. Secretaría de Innovación Pública (2023). Recomendaciones para una Inteligencia Artificial Fiable, https://www.argentina.gob.ar/sites/default/files/2023/06/recomendaciones_para_una_inteligencia_artificial_fiable.pdf
Scardino, L. (2023). Aplican «machine learning» para la valuación fiscal de los inmuebles en Córdoba, https://unciencia.unc.edu.ar/computacion/aplican-machine-learning-para-la-valuacion-fiscal-de-los-inmuebles-en-cordoba/. En Universidad Nacional de Córdoba, UNCiencia.