Origen de los métodos digitales
En 1939, Alan Turing publicó sus primeros ejercicios sobre computabilidad. En sus investigaciones introdujo la idea de un oráculo que pudiera calcular lo incalculable: “No iremos más allá en la naturaleza de este oráculo salvo por decir que no puede ser una máquina” (Turing 1939, 172-173). La oracle machine de Turing da un paso incalculable, no puramente mecánico, algo así como una simbiosis entre técnica y humanidad que está en la base de la inteligencia artificial. En cualquier caso, metáforas de este tipo no parecen ser poco comunes en este campo. Hoy es común escuchar entre los CEO e investigadores de los grandes servicios cloud de la actualidad que, en materia de análisis digital, el cielo es el límite.
Los avances hechos hasta hoy en este campo combinan la investigación de distintas disciplinas y de la técnica moderna. Incluyen desde lógica, matemática y cibernética de segundo orden hasta electrónica, informática e inteligencia artificial. Algunos hitos de esta historia son los siguientes.
En 1943 Warren McCulloch and Walter Pitts publican un artículo seminal sobre redes neuronales: ‘A logical calculus of the ideas immanent in nervous activity’ (McCulloch y Pitts 1943). En él caracterizan la actividad neuronal de ‘todo o nada’ como una lógica proposicional referida a redes de conducta. El artículo da origen a la investigación por medio de redes neuronales, hoy ampliamente aplicadas en distintos campos.
En 1950 Alan Turing (1950), nuevamente, creó el Turing Test. Turing propuso que la pregunta si una máquina puede pensar no es realmente relevante. Lo relevante son sus rendimientos. Mediante el test, Turing busca determinar cuán bien la máquina puede imitar a un humano. La prueba consiste en la performance entregada por el computador a lo que denomina el juego de imitación. En palabras de Turing, el juego tiene la siguiente estructura: “Se juega con tres personas, un hombre (A), una mujer (B) y un interrogador (C) que puede ser de cualquier sexo. El interrogador permanece en una habitación separada de los otros dos. El objetivo del juego para el interrogador es determinar cuál de los otros dos es el hombre y cuál es la mujer” (Turing 1950, 433). El test dio origen a una amplia discusión sobre inteligencia artificial y a sus aplicaciones a fenómenos físicos y sociales (Graham y Dowe 2020).
El problema central al que se orientó el campo fue el reconocimiento de patrones en crecientes cantidades de datos, de manera tal de poder producir decisiones aprendiendo de ejemplos (Mendon-Plasek 2021). A esto se le denomina aprendizaje automático, o machine learning. En 1957, Frank Rosenblatt, basado en las formulaciones originales de McCulloch y Pitts (1943), desarrolló el algoritmo perceptron, un clasificador lineal predictivo que permitió los primeros ejercicios de reconocimiento de imágenes mediante aprendizaje automático (Rosenblatt 1957).
Luego de que la década de 1970 estuvo más centrada en el desarrollo de computadores, las limitaciones de procesamiento y velocidad y los inicios de internet (Foote 2016), en la década de 1980 un avance crucial consistió en la introducción de los algoritmos de backpropagation en redes neuronales basados en modelos de la década de 1960 desarrollados en el ámbito de la rocket science (Kelly 1960). Esto permitió el entrenamiento de redes neuronales con múltiples capas, aumentando el poder predictivo de estos modelos (Foote 2017).
Si bien en la década de 1990 y 2000 hubo una mayor integración entre informática y estadística y grandes desarrollos en diversas áreas del aprendizaje automático, por ejemplo, en métodos de kernel como support vector machines (Cortés y Vapnik 1995), desde 2010 en adelante, gracias a la mayor disponibilidad de datos y mayor capacidad de cómputo (GPUs), se observa un predominio de los métodos basados en redes neuronales con muchas capas, denominado deep learning. Más aún, los actuales modelos de deep learning permiten trabajar con diferentes tipos de datos (estructurados y no estructurados) (Yan 2021).
Para la década de 1990, el aprendizaje automático (machine learning) ganó popularidad gracias a la intersección entre informática y estadística. Esto generó un gran cambio en el campo del aprendizaje automático; desde ahí se empezaría a trabajar con más datos y de distinto tipo (estructurado y no-estructurado)
Sobre estas bases, y a pesar de algunas lagunas producidas por limitaciones técnicas y expectativas desmedidas que quitaban credibilidad a los avances reales, el despliegue en décadas posteriores fue vertiginoso y no alcanza a detallarse en este espacio. El desarrollo de distintos algoritmos, la expansión de la digitalización en diferentes ámbitos sociales, el avance en la capacidad de procesamiento de datos y los múltiples campos de aplicación del aprendizaje automático han hecho que toda actividad en la sociedad contemporánea esté íntimamente relacionada con la técnica y la digitalización (Hassanien y Darwish 2021; Schreibman et al. 2004). Las ciencias sociales no quedaron ajenas a este impacto.