Las primeras investigaciones sobre redes neuronales datan de principios del siglo XIX pero fue hasta la década de los 40 y 50, en el siglo XX, cuando el estudio de las redes neuronales cobró mayor fuerza, gracias al movimiento Conexionista. Este movimiento sostenía la premisa de que el secreto para el aprendizaje y el conocimiento se halla en axiomas o verdades incuestionables y que el conocimiento es independiente de la estructura que maneje los símbolos, y la representación del conocimiento se hace desde el estrato más básico de la inteligencia: el cerebro especialmente en las neuronas y las múltiples interconexiones entre ellas.
Este notable interés por las redes neuronales se vio disminuido en los años 70 debido al surgimiento de autores tales como Minsky y Papert (1969) los cuales manifestaron las limitaciones en el proceso de aprendizaje de las arquitecturas de las redes neuronales utilizadas hasta ese entonces. En su libro "Perceptrons", que además de contener un análisis matemático detallado del Perceptrón, consideraba que la extensión a Perceptrones multinivel (el Perceptrón original solo poseía una capa) era completamente estéril. Las limitaciones del Perceptrón eran importantes, en especial su incapacidad para resolver muchos problemas interesantes. Esta fue una de las razones por la cual la investigación en redes neuronales quedó rezagada por más de 10 años.
No obstante, en los años 80 los nuevos avances en el campo tecnológico y en el conocimiento de la estructura del cerebro provocaron un resurgimiento del interés por las redes neuronales permitiendo hasta el día de hoy la creación de un número creciente de aplicaciones en distintos campos y con diversos propósitos.
Las redes neuronales artificiales se constituyen en una técnica de procesamiento masivo y paralelo de la información que emula las características esenciales de la estructura neuronal del cerebro biológico.