Perceptrones multicapa, viejos conceptos y nuevos productos
December 07, 2024 | 5 minutes read
Un perceptrón multicapa (MLP) es una red neuronal artificial profunda compuesta por más de un perceptrón. Dicho esto, un perceptrón se define como un modelo de una sola neurona, y en muchos sentidos sirvió como precursor de diversas formas de redes neuronales artificiales que se han desarrollado e implementado en una amplia gama de aplicaciones tecnológicas en los últimos años. En el contexto del aprendizaje profundo, los perceptrones se utilizan más comúnmente para resolver problemas de aprendizaje supervisado con respecto a la clasificación binaria. Un ejemplo común de un problema de clasificación de este tipo son los filtros de spam de correo electrónico que se utilizan para identificar si un mensaje es spam o no, ya que el algoritmo se entrenará junto con dos decisiones específicas.
La historia de las percepciones
Al igual que otros conceptos e ideas que prevalecen actualmente en el mundo del aprendizaje automático y la inteligencia artificial, el primer modelo matemático creado de acuerdo con las funciones de las neuronas del cerebro humano fue propuesto por primera vez hace varias décadas por el neurocientífico Warren McCulloch y el lógico Walter Pitts en 1943. En su trabajo de investigación,“A Logical Calculus of the ideas Imminent in Nervous Activity” (“Un cálculo lógico de las ideas inminentes en la actividad nerviosa“), ambos se basaron en ideas y conceptos expuestos por primera vez por el matemático y científico inglés Alan Turing en su innovador trabajo de investigación“On Computable Numbers“(“Sobre números computables“). Como a Turing se le atribuye la introducción del concepto de inteligencia artificial, Pitts y McCulloch trataron de describir las funciones del cerebro humano en términos abstractos.
Más concretamente, su trabajo de investigación detallaba los medios tangibles por los que las propiedades y características de las neuronas que componen el cerebro humano podrían materializarse en un medio artificial capaz de producir una extraordinaria cantidad de potencia computacional, lo que hoy conocemos como perceptrón. Aunque este artículo recibió poco reconocimiento o notoriedad cuando se publicó inicialmente, el concepto de perceptrón se utilizó en una máquina que se construyó en el Laboratorio Aeronáutico de Cornell en 1958. Esta máquina se llamaba IBM 704 y fue creada por el psicólogo estadounidense Frank Rosenblatt, y se utilizó para cualquier iteración temprana de clasificación de imágenes.
Tendencia a los macrodatos
A pesar de las prometedoras e innovadoras ideas del perceptrón, así como de las máquinas que se crearon en un intento de hacer realidad estas ideas de forma comercial y científica, la cantidad de datos y potencia computacional que se necesitaba para implementar los perceptrones de forma eficaz y eficiente no se desarrollaría hasta pasados varios años. En este sentido, no fue hasta que la tendencia de los macrodatos empezó a cobrar fuerza en los campos de la inteligencia artificial y el aprendizaje automático, alrededor del año 2010, cuando los ingenieros de software empezaron a revisar las ideas planteadas por Alan Turning, Warren McCulloch y Walter Pitts en años anteriores. Posteriormente, grandes conjuntos de datos estructurados y no estructurados han permitido a los desarrolladores de software utilizar redes neuronales artificiales de diversas maneras, y el perceptrón constituye la base de muchas de estas tecnologías.
El perceptrón multicapa
Dicho todo esto, los perceptrones multicapa son una de las redes neuronales artificiales feed-forward más utilizadas, ya que aprovechan los poderes y capacidades de varios perceptrones a la vez. Para ello, estas redes estarán formadas por varias capas artificiales, como su nombre indica. En la más básica de las aplicaciones, un perceptrón multicapa contendrá 3 categorías específicas de capas. La primera capa dentro de estas redes será la capa de entrada o visual, ya que esta parte de la red se utilizará para alimentar los datos de entrada iniciales o la información en el modelo de aprendizaje profundo. La siguiente capa de la red será la capa oculta.
La capa oculta dentro de una red neuronal artificial de alimentación hacia adelante representará la parte del modelo de aprendizaje profundo donde las neuronas artificiales dentro del modelo se asignarán pesos o parámetros específicos, que luego se utilizarán para crear una salida del modelo a través de una función de activación que se ha realizado en las entradas que se han alimentado a través del modelo. Por último, la tercera capa dentro de una red de este tipo será la capa de salida, ya que esta capa se utilizará para dar salida a un valor que corresponde al formato requerido en relación con el problema que se está resolviendo mediante el uso del modelo de aprendizaje profundo. Aunque los parámetros de las capas que se utilizan en un perceptrón multicapa dependerán del problema que un desarrollador de software quiera resolver, todas estas redes contendrán una capa de entrada, una oculta y una de salida.
A medida que los avances en el mundo de la informática han permitido a los ingenieros de software y a los científicos de datos revisar teorías que no se habían realizado completamente en algún momento en el pasado lejano, los perceptrones multicapa son sólo un ejemplo de un concepto o idea dentro del ámbito de la inteligencia artificial y el aprendizaje automático que se ha vuelto mucho más práctico en los últimos años. Del mismo modo, a pesar de que los perceptrones multicapa se consideran un enfoque más clásico de las redes neuronales en comparación con técnicas y métodos más contemporáneos, los conceptos matemáticos que informaron la creación de dichas redes neuronales siguen siendo válidos hoy en día.