Debate

EL DEBATE SOBRE LA IA

Algoritmos y pereza intelectual

Por Daniel Novak

Una mirada crítica sobre el uso académico de la “inteligencia artificial”

Un algoritmo es un conjunto de instrucciones definidas y ordenadas, diseñadas para resolver un problema o realizar una tarea específica, que tiene un número definido de pasos que deben seguir una secuencia lógica para lograr un objetivo o resultado final.

En informática los algoritmos son la base de la programación y de todas las aplicaciones y sistemas operativos de computadoras, teléfonos celulares y otros dispositivos similares (tablets, cajeros automáticos, etc.) que permiten realizar tareas complejas, desde procesar datos hasta controlar dispositivos vinculados.

Uno de los orígenes de los algoritmos se puede rastrear en las primeras calculadoras eléctricas, en las que se instalaban las operaciones matemáticas que tenían que resolver, sobre la base de los pasos lógicos derivados de la carga manual de datos primarios (los números para la operación) y los símbolos de las operaciones a realizar con esos números (sumas, multiplicaciones, divisiones y otras más “sofisticadas” como potencias y raíces cuadradas).

Con la aparición de las computadoras (ordenadores de datos) la incorporación de operaciones lógicas se hizo más compleja y ya no incluía sólo operaciones matemáticas sino secuencias de procesos que implicaban precisamente ordenar los datos cargados para obtener resultados lógicamente predeterminados que no fueran sólo números.

Pero el paso más importante fue el de procesar información sobre la base del ordenamiento de datos cargados previamente, vinculando palabras clave o textos con salidas predeterminadas en función de ese ordenamiento, que también responde a conexiones lógicas entre ellos, aunque esa lógica sólo garantiza la coherencia de las deducciones en función de los datos aportados, pero no la veracidad de las mismas. 

Por eso, los algoritmos informáticos tienen al menos dos riesgos de inexactitud: 1) que los datos de origen (premisas) no sean los correctos para la situación que se pretende analizar, y/o 2) que la secuencia lógica deductiva (instalada en el ordenador) sobre la base de esas premisas no sea correcta.

Para entender un poco mejor la afirmación anterior se puede hacer una comparación con el análisis matemático utilizado en disciplinas científicas. El análisis matemático es la forma más pura y confiable del razonamiento lógico, que garantiza que, si las premisas (datos básicos originarios del problema a analizar) son correctas y se corresponden con la realidad, la deducción matemática será también correcta y veraz. Pero si esas premisas no son correctas o no se corresponden con la realidad que se quiere analizar, las conclusiones serán inadecuadas a pesar de la corrección de la deducción lógica, cosa que es frecuente en ciencias sociales, como en el caso de la economía con los famosos supuestos analíticos.

En los algoritmos que procesan información y brindan resultados deducidos los riesgos de falta de veracidad son dobles, porque no sólo no está garantizado que las premisas o supuestos originales sean correctos o se correspondan con la realidad a analizar, sino que tampoco está garantizado, como en el análisis matemático, que el proceso de deducción lógica posterior sea adecuado o esté validado científicamente. Todo depende de quién diseñó y cargó el algoritmo en el ordenador y cómo estén organizados los insumos originales del problema, que generalmente es alguien/es desconocido/s o hasta posiblemente otro algoritmo previo.

Estos riesgos son cruciales al momento de analizar y evaluar la confiabilidad de la mal denominada “inteligencia artificial” (en adelante IA) con fines académicos, sobre todo en la educación superior. Mal denominada porque en realidad no hay ningún proceso intelectual implicado en la respuesta que estas aplicaciones brindan a sus usuarios sino un mero mecanismo de conexiones lógicas predeterminadas entre datos ingresados y salidas informáticas previamente diseñadas. Sin duda que quien/es desarrollaron ese mecanismo lo hicieron sobre la base de su propia “inteligencia”, que nadie nos garantiza que sea suficientemente inteligente para el problema que nos preocupa.

De la única manera que podría adoptarse la IA (que sería más adecuado llamarla “inferencia artificial” con la misma sigla) con fines didácticos es generando algún mecanismo de validación académica de los algoritmos implicados de acuerdo con la disciplina de que se trate. Ese proceso de validación debería quedar registrado dando lugar al equivalente a un “certificado de calidad del algoritmo” implicado en la aplicación (chatbot).

Este proceso de validación debería ser llevado a cabo por cada casa de estudios mediante un proceso similar a la edición de libros o publicaciones académicas. No obstante, podrían adoptarse también las aplicaciones analizadas y aprobadas por otras casas de estudios de nivel académico confiable y equivalente.

Un problema adicional, y quizás más importante, que habría que analizar es el de la inducción a la pereza intelectual a los usuarios de estas aplicaciones. Desde que surgieron los primeros algoritmos se ha ido instalando la tendencia a razonar menos confiando en las soluciones enlatadas. Desde la época de las primeras calculadoras eléctricas una porción importante de la población se ha convencido de que es cada vez más innecesario entender algunos conceptos matemáticos básicos, como por ejemplo la definición de logaritmo, la diferencia entre media y mediana, el concepto de factor común entre números y hasta la forma de calcular un porcentaje como tanto por uno. Para qué, si total lo hace la calculadora o la computadora; ya no importa el concepto sino el resultado final de la cuenta.

Más recientemente esa pereza intelectual se manifiesta en hechos cotidianos ajenos a la academia como, por ejemplo, tener que dirigirse a un lugar no conocido o poco frecuentado. La inmensa mayoría de las personas utiliza actualmente para eso algoritmos enlatados como Waze, GPS o Google Maps, en vez de utilizar el sentido propio de la ubicación y prescindiendo de lo lindo y sociable que era parar y preguntar (para conocer gente, ¿viste?).

En la enseñanza media y universitaria esta tendencia instala el riesgo cierto de que se pierda la capacidad de lectura de libros y documentos y el interés por la investigación. Así, parece más fácil y hasta pícaro hacer las evaluaciones usando ChatGPT con el celular en vez de tener que estudiar y retener conceptos que, para colmo, hay que entender.

Por todos estos motivos, para quienes creen que la “inferencia artificial” es un tren imparable al que no hay que osar ignorar ni ponerse delante, el mensaje sería que lo mejor es subirse a ese tren para tratar de dirigirlo hacia los fines que nos proponemos sin arriesgarnos a que seres desconocidos con fines inescrutables nos lleven a un mundo chato con pautas de vida enlatadas, perdiendo el instinto de aprender dudando e investigando, que fue como se desarrolló el conocimiento humano, incluidos los algoritmos.

Acerca del autor / Daniel Novak

Docente de la Universidad Nacional Arturo Jauretche, Ex – Coordinador de la Licenciatura en Economía @novak_daniel

Compartir

Comments are closed.