Búsqueda de sitios web
La biblioteca Keras Python hace que la creación de modelos de aprendizaje profundo sea rápida y sencilla.
La API secuencial le permite crear modelos capa por capa para la mayoría de los problemas. Tiene la limitación de que no permite crear modelos que compartan capas o que tengan múltiples entradas o salidas.
La API funcional en Keras es una forma alternativa de crear modelos que ofrece mucha más flexibilidad, incluida la creación de modelos más complejos.
En este tutorial,
Leer más →En una red neuronal, la función de activación es responsable de transformar la entrada ponderada sumada del nodo en la activación del nodo o salida para esa entrada.
La función de activación lineal rectificada o ReLU para abreviar es una función lineal por partes que generará la entrada directamente si es positiva; de lo contrario, generará cero. Se ha convertido en la función de activación predeterminada para muchos tipos de redes neuronales porque un
Leer más →El problema de los gradientes fugaces es un ejemplo de comportamiento inestable que puede encontrarse al entrenar una red neuronal profunda.
Describe la situación en la que una red de alimentación directa multicapa profunda o una red neuronal recurrente no puede propagar información de gradiente útil desde el extremo de salida del modelo hasta las capas cercanas al extremo de entrada del modelo.
El resultado es la incapacidad general de los modelos con muchas capas para aprender s
Leer más →Las redes neuronales se entrenan mediante un descenso de gradiente estocástico y requieren que elija una función de pérdida al diseñar y configurar su modelo.
Hay muchas funciones de pérdida para elegir y puede resultar complicado saber cuál elegir, o incluso qué es una función de pérdida y el papel que desempeña en el entrenamiento de una red neuronal.
En esta publicación, descubrirá el papel de la pérdida y las funciones de pérdida en el entrenamiento de redes neuronales de apre
Leer más →Las redes neuronales de aprendizaje profundo se entrenan utilizando el algoritmo de optimización de descenso de gradiente estocástico.
Como parte del algoritmo de optimización, el error del estado actual del modelo debe estimarse repetidamente. Esto requiere la elección de una función de error, convencionalmente denominada función de pérdida, que se puede utilizar para estimar la pérdida del modelo de modo que las ponderaciones se puedan actualizar para
Leer más →Las redes generativas adversarias, o GAN para abreviar, son una arquitectura de aprendizaje profundo para entrenar modelos generadores potentes.
Un modelo generador es capaz de generar nuevas muestras artificiales que plausiblemente podrían haber provenido de una distribución de muestras existente.
Las GAN se componen de modelos generadores y discriminadores. El generador se encarga de generar nuevas muestras del dominio y el discriminador se encarga de clasificar si las muestras
Leer más →Generative Adversarial Network, o GAN para abreviar, es una arquitectura para entrenar un modelo generativo.
La arquitectura se compone de dos modelos. El generador que nos interesa y un modelo discriminador que se utiliza para ayudar en el entrenamiento del generador. Inicialmente, tanto el modelo generador como el discriminador se implementaron como perceptrones multicapa (MLP), aunque más recientemente los modelos se implementaron como redes neuronales convolucionales profundas.
Leer más →La red generativa adversarial, o GAN para abreviar, es una arquitectura de aprendizaje profundo para entrenar un modelo generativo para la síntesis de imágenes.
La arquitectura GAN es relativamente sencilla, aunque un aspecto que sigue siendo un desafío para los principiantes es el tema de las funciones de pérdida de GAN. La razón principal es que la arquitectura implica el entrenamiento simultáneo de dos modelos: el generador y el discriminador.
El modelo discriminador se actuali
Leer más →Una función de distribución empírica proporciona una manera de modelar y muestrear probabilidades acumuladas para una muestra de datos que no se ajusta a una distribución de probabilidad estándar.
Como tal, a veces se la denomina función de distribución acumulativa empírica, o ECDF para abreviar.
En este tutorial, descubrirá la función de distribución de probabilidad empírica.
Después de completar este tutorial, sabrá:
El aprendizaje supervisado en el aprendizaje automático se puede describir en términos de aproximación de funciones.
Dado un conjunto de datos compuesto por entradas y salidas, asumimos que existe una función subyacente desconocida que es consistente en asignar entradas a salidas en el dominio objetivo y dio como resultado el conjunto de datos. Luego utilizamos algoritmos de aprendizaje supervisado para aproximar esta función.
Las redes neuronales son un ejemplo de algoritmo de ap
Leer más →