freeCodeCamp/guide/spanish/machine-learning/glossary/index.md

5.2 KiB
Raw Blame History

title localeTitle
Glossary Glosario

Glosario

Una o dos oraciones rápidas que describen términos comunes. Ver páginas individuales para más detalles.

  • Machine Learning - Intersección de estadística e informática en para enseñar a las computadoras a realizar tareas sin ser explícitamente programadas.
  • Aprendizaje profundo : un término general para métodos de aprendizaje automático basados en representaciones de datos de aprendizaje en lugar de algoritmos basados en el cumplimiento de una tarea determinada. Incluye arquitecturas como redes neuronales profundas, redes de creencias profundas y redes neuronales recurrentes.
  • Neuroevolución : un término general para métodos de aprendizaje automático basados en la generación de redes neuronales a través del peso, sesgo y arquitectura a través de mutaciones aleatorias de la red. Las formas más comunes de neuroevolución son la neuroevolución de las topologías de aumento ( NEAT ) y la neuroevolución interactivamente restringida ( ICONE ).
  • Aprendizaje estadístico - el uso del aprendizaje automático con el objetivo de inferencia estadística, mediante la cual usted saca conclusiones de los datos en lugar de centrarse en la precisión de la predicción
  • Aprendizaje supervisado : uso de datos históricos para predecir el futuro. Ejemplo: Usar datos históricos de precios a los que se vendieron casas para predecir el precio en que se venderá su casa. La regresión y la clasificación están bajo aprendizaje supervisado.
  • Aprendizaje no supervisado : búsqueda de patrones en datos sin etiquetar. Ejemplo: Agrupar clientes por comportamiento de compra. La agrupación viene bajo aprendizaje no supervisado.
  • Aprendizaje de refuerzo : uso de un entorno real o simulado en el que un algoritmo de aprendizaje automático recibe información y recompensas escasas para construir un modelo para predecir acciones. El aprendizaje de refuerzo se ha utilizado para entrenar robots virtuales para equilibrarse y vencer a los juegos diseñados para humanos .
  • Regresión : una técnica de aprendizaje automático utilizada para predecir valores continuos. La regresión lineal es uno de los algoritmos de regresión más populares.
  • Clasificación : una técnica de aprendizaje automático utilizada para predecir valores discretos. La regresión logística es uno de los algoritmos de clasificación más populares.
  • Asociación de aprendizaje de reglas : un método de aprendizaje automático basado en reglas para descubrir relaciones interesantes entre variables en grandes bases de datos.
f: x -> y 
 
 Here 'f' is a function that takes 'x' as input and produces 'y' as output. 
 
 If the output value 'y' is a real number / continous value then the function 
 is a regression technique. 
 
 If the output value 'y' is a discrete / categorical value then the function is a classification technique. 
  • Clustering - Agrupación de datos sin etiquetar. Identificación de patrones utilizando estadísticas.

  • Reducción de la dimensionalidad : reduce el número de variables aleatorias en los datos para obtener predicciones más precisas.

  • Bosques aleatorios: los bosques aleatorios o los bosques de decisión aleatorios son un método de aprendizaje conjunto para la clasificación, regresión y otras tareas, que funcionan mediante la construcción de una multitud de árboles de decisión en el momento del entrenamiento y la salida de la clase que es el modo de las clases o la predicción media del árboles individuales. - Redes bayesianas: una red bayesiana es un modelo gráfico probabilístico que relaciona un conjunto de variables aleatorias con sus independencias condicionales a través de un gráfico acíclico dirigido (DAG). De manera simple, relaciona la variable aleatoria con sus independencias condicionales para la predicción del evento. Juega un papel crucial en la relación pista-causa. - Compensación sesgo-varianza - El sesgo es útil porque nos ayuda a determinar la diferencia promedio en los valores predichos y los valores reales, mientras que la varianza nos ayuda a determinar cómo las diferentes predicaciones en el mismo conjunto de datos difieren entre sí. Si el sesgo aumenta, entonces el modelo tiene un alto error en las predicciones, lo que hace que el modelo tenga un desempeño inferior. Una gran variación hace que el modelo se adapte a medida que el modelo se entrena de forma continua solo en el conjunto de datos dado y tiene un bajo rendimiento en los datos que aún no ha visto. Encontrar un equilibrio entre sesgo y variación es la clave para hacer un buen modelo.

Más información: