Basic glossary about Artificial Intelligence

AlexNetEs un modelo.
ANN"Artificial Neural Network".
artificial intelligence
backpropagationRetropropagación. Propagación hacia atrás.
backpropagation, algoritmoAlgoritmo de retropropagación. Algoritmo de propagación hacia atrás.
big data
BrainScriptLenguaje de descripción de modelo de CNTK.
CaffeFramework de deep learnig escrito en C++ con un interfaz Python. Soporta muchos tipos diferentes de arquitecturas de deep learning orientadas a la clasificación de imágenes y a la segmentación de imágenes. Soporta CNN, RCNN, LSTM y diseños de redes neuronales conectadas completamente. Caffe soporta librerías de kernel computacional basadas en GPU y CPU tales como NVIDIA cuDNN e Intel MKL. Caffe está siendo usada en proyectos de investigación académica, protitipos startup, e incluso aplicaciones industriales a gran escala en visión, habla y multimedia. Ver Caffe2.
http://caffe.berkeleyvision.org/
Caffe, NVIDIAVer NVCaffe.
Caffe2Framework de deep learning ligero, modular y escalable. Incluye nuevas características como RNNs. Caffe2 es un framework de deep learning diseñado para expresar fácilmente todos los tipos de modelos, por ejemplo CNN, RNN, y más, en un API basado en Python amigable, y ejecutarlos usando un backend de CUDA y C++ altamente eficiente.
https://caffe2.ai/
CaffeOnSparkFramework de deep learning distribuido creado por Yahoo! usando Spark.
ChainerEs un framework de deep learning basado en Python apuntando a la flexibilidad. Provee APIs de diferenciación automática basados en el enfoque define-por-ejecución (define-by-run), también conocidas como gráficas computacionales dinámicas, así como APIs de alto nivel orientadas a objetos para construir y entrenar redes neuronales. Soporta CUDA y cuDNN usando CuPy para inferencia y entrenamiento de alto rendimiento.
https://chainer.org/
CNN"Convolutional Neural Network". Principalmente para clasificación de imágenes.
CNTK, Microsoft"Cognitive Toolkit" de Microsoft. Es un toolkit de deep learning unificado que describe redes neuronales como una serie de pasos computacionales por medio de un gráfico dirigido. En este gráfico dirigido, los nodos de hoja representan valores de entrada o parámetros de red, mientras que los otros nodos representan operaciones de matrices sobre sus entradas. CNTK es un toolkit para deep learning distribuido de grado comercial. Describe redes neuronales como una serie de pasos computacionales por medio de un gráfico dirigido. CNTK permite al usuario fácilmente realizar y combinar tipos de modelos populares como redes neuronales profundas feed-forward, redes neuronales convolucionales (CNNs) y redes neuronales recurrentes (RNNs) (incluidas redes RNN de tipo LSTM). CNTK implementa aprendizaje de descenso de gradiente estocástico (SGD) con diferenciación automática y paralelización sobre múltiples GPUs y servidores. CNTK puede ser incluido como una librería en tus programas Python, C# o C++, o usado como una herramienta machine-learning standalone a través de su propio lenguaje de descripción de modelo (BrainScript). En adición puedes usar la funcionalidad de evaluación de modelo CNTK desde tus programas Java. CNTK es también uno de los primeros toolkits de deep learning en soportar el formato Open Neural Network Exchange (ONNX).
https://docs.microsoft.com/es-es/cognitive-toolkit/
Cognitive ToolkitVer CNTK.
computer vision
ConvNetVer CNN.
CoreNLP
CUDAEs una plataforma de computación paralela y modelo de programación que activa incrementos dramáticos en rendimiento de computación aprovechando el poder de las GPUs NVIDIA.
https://docs.nvidia.com/cuda/
cuDNNNVIDIA CUDA Deep Neural Network library. Librería de red neuronal profunda NVIDIA CUDA.
CuPy
clusterConjunto de ordenadores conectados por una red de alta velocidad.
CythonEs una librería de Python común.
Data Center Accelerator, NVIDIAAcelerador de centro de datos de NVIDIA. Hay varios, por ejemplo: DGX-1, DGX-2.
data scientist
Deep Cognition Studio (DLS)Es un kit de herramientas de software y plataforma que simplifica el diseño, entrenamiento, testeo y el desarrollo de modelos de IA de deep learning.
https://deepcognition.ai/
deep learning
design patterns
DGX Station, NVIDIAUna workstation para equipos de ciencia de datos. NVIDIA DGX Station es la workstation más rápida del mundo para desarrollo de inteligencia artificial avanzada. Este sistema optimizado e integrado completamente permite a tu equipo comenzar más rápido y experimentar con menos esfuerzo con el poder de un centro de datos en tu oficina. 72X más rápida que un servidor de doble CPU.
https://www.nvidia.com/en-us/data-center/dgx-station
DGX-1, NVIDIAPara investigación en inteligencia artificial. El camino más rápido hacia deep learning. Construir una plataforma para deep learning va mucho más allá de seleccionar un servidor y GPUs. Un compromiso para implementar inteligencia artificial en tu negocio involucra cuidadosamente seleccionar e integrar software complejo con hardware. NVIDIA DGX-1 acelera tu iniciativa con una solución que funciona nada más sacarlo de la caja, por lo que puedes ganar percepciones en horas en lugar de semanas o meses. Red Hat Enterprise Linux en sistemas NVIDIA DGX-1. 140X más rápida que un servidor de una CPU.
https://www.nvidia.com/en-us/data-center/dgx-1
DGX-2, NVIDIAEl sistema de inteligencia artificial más poderoso del mundo para los desafíos de inteligencia artificial más complejos. Experimenta nuevos niveles de escala y velocidad de inteligencia artificial con NVIDIA DGX-2, el primer sistema de 2 petaFLOPS que combina 16 GPUs interconectadas completamente para 10X el rendimiento de deep learning. Es empoderada mediante software NVIDIA DGX y una arquitectura escalable construida sobre NVIDIA NVSwitch, por lo que puedes asumir los desafíos de inteligencia artificial más complejos del mundo. DGX-2, infraestructura esencial de inteligencia artificial Enterprise. 10X más rápida que DGX-1.
https://www.nvidia.com/en-us/data-center/dgx-2
diferenciación automática
DIGITS, NVIDIADeep Learning GPU Training System (DIGITS). Sistema de entrenamiento de GPU de deep learning. Pone el poder de deep learning en las manos de ingenieros y científicos de datos. DIGITS puede ser usado para entrenar rápidamente la red neuronal (DNNs) altamente precisa para clasificación de imágenes, segmentación y tareas de detección de objetos.
https://developer.nvidia.com/digits
DNN"Deep Neural Network".
DockerEs una herramienta que puede empaquetar una aplicación y sus dependencias en un contenedor virtual que se puede ejecutar en cualquier servidor Linux.
https://www.docker.com/
Edge deviceEs un dispositivo que provee un punto de entrada a redes core de proveedor de servicio o enterprise. Ejemplos incluyen routers, switches de enrutamiento, dispositivos de acceso integrado (IADs), multeprexadores, y una variedad de redes de área metropolitana (MAN) y dispositivos de acceso a redes de área ancha (WAN).
fastText
feed-forward (red)Prealimentada (alimentada hacia adelante).
Feedforward Neural Network (FNN)Red neuronal prealimentada (alimentada hacia adelante). Es una red neuronal en la que las conexiones entre los nodos no forman un ciclo. Ver también RNN.
Flink
FLOPS (flop/s)Floating point operations per second. Operaciones de coma flotante por segundo.
FNNVer Feedforward Neural Network.
Gensim
Google AI
https://ai.google/
Google Brain (team)
https://ai.google/research/teams/brain
Google Developer DayDía del Desarrollador de Google.
Google I/OEs una conferencia de desarrolladores anual sostenida por Google en Mountain View, California. I/O fue inaugurada en 2008, y es organizada por el equipo ejecutivo. "I/O" representa input/output, así como el eslogan "Innovation in the Open". El formato del evento es similar al Google Developer Day.
https://events.google.com/io
GoogLeNetEs un modelo.
gRPCEs un sistema de llamada a procedimiento remoto (remote procedure call, RPC) inicialmente desarrollado en Google.
Hadoop, Apache
I/OVer Google I/O.
Inception-v3Es un modelo.
inferenciaCálculo de las salidas de la red neuronal.
Kafka
Keras
Lidar
LSTM, red"Long Short-Term Memory". Es un tipo especial de red neuronal recurrente (RNN) capaz de aprender dependencias long-term (largo plazo).
LuaLenguaje de script usado en Torch.
machine learning
MATLABEs una plataforma de programación diseñada para ingenieros y científicos. Combina un entorno de escritorio sintonizado para analisis interactivo y procesos de diseño con un lenguaje de programación que expresa matemáticas de array y matrices directamente.
MATLAB Deep Learning ContainerProvee algoritmos, modelos preentrenados, y applicaciones para crear, entrenar, visualizar, y optimizar redes neuronales profundas. Puedes también acceder a herramientas para procesado de señal e imágenes, analítica de textos, y generar automáticamente código C y CUDA para desarrollo sobre GPUs NVIDIA en centros de datos y sistemas embebidos.
https://www.mathworks.com/help/cloudcenter/matlab-deep-learning-container-on-nvidia-gpu-cloud.html
MATLAB Deep Network Designer
https://www.mathworks.com/help/deeplearning/ref/deepnetworkdesigner-app.html
MATLAB for Deep Learning
https://www.mathworks.com/solutions/deep-learning.html
MKL, IntelIntel Math Kernel Library. Librería de núcleo matemático de Intel. Es una librería de rutinas matemáticas optimizadas para ciencia, ingeniería y aplicaciones financieras. Las funciones matemáticas núcleo incluyen BLAS, LAPACK, ScaLAPACK, solucionadores dispersos, transformada de Fourier rápida y matemáticas de vector. Están optimizadas para procesadores Intel. Esta librería está disponible para Windows, Linux y macOS.
MKL-DNN, IntelIntel "Math Kernel Library for Deep Neural Networks". Librería de núcleo de matemáticas de Intel para redes neuronales profundas.
ML"Machine Learning".
MLP"Multilayer Perceptron".
MXNetEs un framework de deep learning que te permite mezclar los sabores de programación simbólica y programación imperativa para maximizar la eficiencia y la productividad. La libería es portable y ligera, y se escala a múltiples GPUs y múltiples máquinas.
https://mxnet.apache.org/
NLP"Natural Language Processing".
NLTK"Natural Language Toolkit".
NumPyEs una librería de Python común.
NVCaffeNVIDIA Caffe. Es un fork mantenido por NVIDIA de Caffe ajustado para GPUs NVIDIA, particularmente en configuraciones multi GPU. Incluye soporte de multiprecisión así como otras características mejoradas de NVIDIA y ofrece rendimiento especialmente ajustado para NVIDIA DGX-2, DGX-1 y DGX Station.
http://docs.nvidia.com/deeplearning/dgx/caffe-release-notes/index.html
http://caffe.berkeleyvision.org/
nvidia-docker
NVSwitch, NVIDIASe usa en DGX-2.
ONNX"Open Neural Network Exchange". Es un formato para modelos de deep learning que permite interoperabilidad entre diferentes frameworks de IA. ONNX está siendo desarrollado por Microsoft, Amazon y Facebook como un proyecto open source. En su primera versión soportará los frameworks de deep learning Caffe2, PyTorch, MXNet y Microsoft CNTK. ONNX es una representación de modelo compartida para interoperabilidad framework y optimización compartida. Codesarrollado por Microsoft y soportado por muchos otros, ONNX permite a los desarrolladores mover modelos entre frameworks tales como CNTK, Caffe2, MXNet y PyTorch.
https://onnx.ai/
PaddlePaddleProporciona un interfaz intuitivo y flexible para cargar datos y especificar estructuras de modelos. Soporta CNN, RNN, variantes múltiples y configura modelos profundos complicados fácilmente. Proporciona operaciones optimizadas extremadamente, reciclaje de memoria y comunicación de red. PaddlePaddle hace fácil escalar recursos de computación heterogeneos y almacenamiento para acelerar el proceso de entrenamiento.
http://www.paddlepaddle.org/
Pandas
peta10^15
PowerAI Enterprise, IBMPlataforma de inteligencia artificial de IBM.
https://www.ibm.com/us-en/marketplace/deep-learning-platform
Pyro, UberSoftware para programación probabilística.
Python
PyTorchEs una librería de machine learning para Python basada en Torch usada para aplicaciones tales como procesado de lenguaje natural. Está desarrollada principalmente por el grupo de investigación de inteligencia artificial de Facebook. Proporciona 2 características de alto nivel: computación "Tensor" (como NumPy) con aceleración GPU fuerte, y redes neuronales profundas construidas sobre un sistema autodiff basado en cinta. PyTorch soporta varios tipos de tensores. PyTorch es un framework computacional de tensores acelerado por GPU con front end Python. Funcionalmente puede ser fácilmente extendido con librerías Python comunes tales como NumPy, SciPy y Cython. La diferenciación automática es realizada con un sistema basado en cinta en ambos un funcional y nivel de capa de red neuronal. Esta funcionalidad trae un alto nivel de flexibilidad y velocidad como un framework deep learning y proporciona funcionalidad tipo NumPy acelerada. PyTorch es una plataforma de aprendizaje profundo de fuente abierta que provee un camino sin problemas desde prototipado de investigación hasta desarrollo de producción.
https://pytorch.org/
PyTorch TensorSimilares a los arrays NumPy, con el añadido de que los tensores pueden también ser usados sobre GPUs que soporten CUDA.
R
R-CNNLa "R" se refiere a región. Para detección de objetos. Ver CNN.
RCNNVer RCNN.
ResNet-101Es un modelo.
ResNet-50Es un modelo.
RNN"Recurrent Neural Network". Es una clase de red neuronal artificial donde las conexiones entre nodos forman un gráfico dirigido a lo largo de una secuencia. Esto permite exhibir un comportamiento dinámico temporal para una secuencia de tiempo. A diferencia de las FNNs, las RNNs pueden usar su estado interno (memoria) para procesar secuencias de entradas.
RStudio
scikit-learn
SciPyEs una librería de Python común.
SGD (aprendizaje)"Stochastic Gradient Descent". Descenso de gradiente estocástico. Aprendizaje de descenso de gradiente estocástico. Se refiere a propagación del error hacia atrás (backpropagation).
Spark, ApacheEs un framework de computación de clúster de propósito general distribuido.
Tableau
TensorArray multidimensional.
TensorFlowEs una librería para computación numérica de alto rendimiento. Su arquitectura flexible permite fácil desarrollo de computación a través de una variedad de plataformas (CPUs, GPUs, TPUs), y desde escritorios hasta clusters de servidores hasta dispositivos edge y móviles. TensorFlow es una librería para computación numérica que usa gráficos de flujo de datos. Los nodos en el gráfico representan operaciones matemáticas, mientras que los bordes de gráfico representan los arrays de datos multidimensionales (tensores) que fluyen entre ellos. Esta arquitectura flexible te permite desplegar computación para una o más CPUs o GPUs en un escritorio, servidor, o dispositivo móvil sin reescribir código. TensorFlow fue originalmente desarrollada por investigadores e ingenieros trabajando en el equipo Google Brain dentro de la organización de investigación de inteligencia de máquina de Google para los propósitos de conducir machine learning e investigación de redes neuronales profundas. El sistema es bastante general para ser aplicable en una amplia variedad de otros dominios, también.
https://www.tensorflow.org/
TensorRT Inference ServerServidor de inferencia de TensorRT. Provee una solución de inferencia de centro de datos optimizada para GPUs NVIDIA. Maximiza la utilización de inferencia y rendimiento sobre GPUs vía un punto final de gRPC o HTTP, permitiendo a clientes remotos pedir inferencia para cualquier modelo que esté siendo manejado por el servidor, así como suministrando métricas en tiempo real sobre latencia y peticiones. El servidor de inferencia TensorRT provee una solución de inferenciación de nube optimizada para GPUs NVIDIA.
https://docs.nvidia.com/deeplearning/sdk/
TensorRT, NVIDIAEs una librería de C++ que facilita la inferencia de rendimiento alto sobre unidades de procesamiento gráfico (GPUs) de NVIDIA. TensorRT toma una red entrenada, la cual consiste de una definición de red y un conjunto de parámetros entrenados, y produce un motor de ejecución optimizado altamente el cual realiza inferencia para esa red. Puedes describir una red de TensorRT usando un API de Python o C++, o puedes importar un modelo existente de Caffe, ONNX o TensorFlow usando uno de los parsers suministrados. TensorRT provee API's vía C++ y Python que ayudan a expresar modelos de deep learning vía el API de Definición de la Red o cargar un modelo predefinido vía los parsers que permiten a TensorRT optimizar y ejecutarlos sobre una GPU NVIDIA. TensorRT aplica optimizaciones de gráfico, fusión de capas, entre otras optimizaciones, mientras también encontrar la implementación más rápida de ese modelo aprovechando una colección diversa de kernels optimizados altamente. TensorRT también suministra un tiempo de ejecución que puedes usar para ejecutar esa red sobre todas las GPUs de NVIDIA desde la generación Kepler hacia adelante.
http://docs.nvidia.com/deeplearning/sdk/
tera10^12
TheanoTheano es una librería Python que te permite definir, optimizar, y evaluar expresiones matemáticas que involucran arrays multidimensionales eficientemente. Theano ha estado alimentando investigaciones científicas intensivas computacionalmente de gran escala desde 2007. Pero es también bastante accesible para ser usado en el aula.
http://deeplearning.net/software/theano
TorchEs un framework de computación científica que ofrece librerías de optimización y red neuronal populares que son fáciles de usar sin embargo proporcionan flexibilidad máxima para construir topologías de red neuronal complejas. Torch es un framework de computación científica con soporte amplio para algoritmos de deep learning. Torch es fácil de usar y eficiente, gracias a un lenguaje de script rápido y fácil, Lua, y a una implementación C/CUDA subyacente.
http://torch.ch/
TPU"Tensor Processing Unit". Unidad de procesamiento tensorial (de tensor o tensores). Es un circuito integrado específico de aplicación (ASIC) acelerador de inteligencia artificial desarrollado por Google específicamente para aprendizaje de máquina de red neuronal. Fue anunciado en Google I/O en 2016. El chip ha sido específicamente diseñado para el framework TensorFlow de Google. Las TPUs de Google no están disponibles comercialmente.
VGG-16Es un modelo.
VGG-19Es un modelo.
word2vec

Generated on 20190614_173232