Basic glossary about Artificial Intelligence

absl-pyTensorFlow. Es un paquete de Python.
Action potentialNeuroscience.
https://en.wikipedia.org/wiki/Action_potential
Activation functionIn artificial neural networks, the activation function of a node defines the output of that node given an input or set of inputs.
https://en.wikipedia.org/wiki/Activation_function
https://www.tensorflow.org/api_docs/python/tf/keras/activations
https://www.tensorflow.org/api_docs/python/tf/keras/activations/sigmoid
AlexNetEs un modelo.
https://en.wikipedia.org/wiki/AlexNet
Algoritmo de descenso del gradienteSee "Gradient Descent algorithm"
https://www.google.com/search?source=hp&ei=wKFSXfKNFaWAjLsPjsW_iAM&q=algoritmo+de+descenso+del+gradiente&oq=algoritmo+de+descenso+del+gradiente&gs_l=psy-ab.3..35i39j0i22i30.2074.2074..3191...0.0..0.117.194.1j1......0....2j1..gws-wiz.LwefKf8B5HI&ved=0ahUKEwjy7YTl4f_jAhUlAGMBHY7iDzEQ4dUDCAU&uact=5
ANN"Artificial Neural Network".
artificial intelligence
astorTensorFlow. Es un paquete de Python.
automatic differentiation
AxonNeuroscience.
https://en.wikipedia.org/wiki/Axon
backpropagationRetropropagación. Propagación hacia atrás.
backpropagation, algoritmoAlgoritmo de retropropagación. Algoritmo de propagación hacia atrás.
bias
BrainScriptLenguaje de descripción de modelo de CNTK.
CaffeFramework de deep learnig escrito en C++ con un interfaz Python. Soporta muchos tipos diferentes de arquitecturas de deep learning orientadas a la clasificación de imágenes y a la segmentación de imágenes. Soporta CNN, RCNN, LSTM y diseños de redes neuronales conectadas completamente. Caffe soporta librerías de kernel computacional basadas en GPU y CPU tales como NVIDIA cuDNN e Intel MKL. Caffe está siendo usada en proyectos de investigación académica, protitipos startup, e incluso aplicaciones industriales a gran escala en visión, habla y multimedia. Ver Caffe2.
http://caffe.berkeleyvision.org/
Caffe, NVIDIAVer NVCaffe.
http://caffe.berkeleyvision.org/
Caffe2Framework de deep learning ligero, modular y escalable. Incluye nuevas características como RNNs. Caffe2 es un framework de deep learning diseñado para expresar fácilmente todos los tipos de modelos, por ejemplo CNN, RNN, y más, en un API basado en Python amigable, y ejecutarlos usando un backend de CUDA y C++ altamente eficiente.
https://caffe2.ai/
CaffeOnSparkFramework de deep learning distribuido creado por Yahoo! usando Spark.
Cell membraneNeuroscience.
https://en.wikipedia.org/wiki/Cell_membrane
ChainerEs un framework de deep learning basado en Python apuntando a la flexibilidad. Provee APIs de diferenciación automática basados en el enfoque define-por-ejecución (define-by-run), también conocidas como gráficas computacionales dinámicas, así como APIs de alto nivel orientadas a objetos para construir y entrenar redes neuronales. Soporta CUDA y cuDNN usando CuPy para inferencia y entrenamiento de alto rendimiento.
https://chainer.org/
Classical conditioningNeuroscience.
CNN"Convolutional Neural Network".
CNTKMicrosoft. "Cognitive Toolkit" de Microsoft. Es un toolkit de deep learning unificado que describe redes neuronales como una serie de pasos computacionales por medio de un gráfico dirigido. En este gráfico dirigido, los nodos de hoja representan valores de entrada o parámetros de red, mientras que los otros nodos representan operaciones de matrices sobre sus entradas. CNTK es un toolkit para deep learning distribuido de grado comercial. Describe redes neuronales como una serie de pasos computacionales por medio de un gráfico dirigido. CNTK permite al usuario fácilmente realizar y combinar tipos de modelos populares como redes neuronales profundas feed-forward, redes neuronales convolucionales (CNNs) y redes neuronales recurrentes (RNNs) (incluidas redes RNN de tipo LSTM). CNTK implementa aprendizaje de descenso de gradiente estocástico (SGD) con diferenciación automática y paralelización sobre múltiples GPUs y servidores. CNTK puede ser incluido como una librería en tus programas Python, C# o C++, o usado como una herramienta machine-learning standalone a través de su propio lenguaje de descripción de modelo (BrainScript). En adición puedes usar la funcionalidad de evaluación de modelo CNTK desde tus programas Java. CNTK es también uno de los primeros toolkits de deep learning en soportar el formato Open Neural Network Exchange (ONNX).
https://docs.microsoft.com/es-es/cognitive-toolkit/
Cognitive ToolkitVer CNTK.
computer vision
Condicionamiento clásicoNeurociencia.
ConvNetVer CNN.
CoreNLP
Cryo-electron tomographySee "Electron cryotomography".
Cryopreservation
cuBLASAn optimized CUDA API.
CUDA Toolkit
CUDAProgramming GPUs. Write C-like code that runs directly on the GPU. Optimized APIs: cuBLAS, cuFFT, cuDNN, etc. Es una plataforma de computación paralela y modelo de programación que activa incrementos dramáticos en rendimiento de computación aprovechando el poder de las GPUs NVIDIA.
https://docs.nvidia.com/cuda/
cuDNNNVIDIA CUDA Deep Neural Network library. Librería de red neuronal profunda NVIDIA CUDA. An optimized CUDA API.
cuFFTAn optimized CUDA API.
CuPy
clusterConjunto de ordenadores conectados por una red de alta velocidad.
CythonEs una librería de Python.
Data Center Accelerator, NVIDIAAcelerador de centro de datos de NVIDIA. Hay varios, por ejemplo: DGX-1, DGX-2.
Deep Cognition Studio (DLS)Es un kit de herramientas de software y plataforma que simplifica el diseño, entrenamiento, testeo y el desarrollo de modelos de IA de deep learning.
https://deepcognition.ai/
deep learning
Deeplearning4j
DendritaNeurociencia.
https://es.wikipedia.org/wiki/Dendrita
DendriteNeuroscience.
https://en.wikipedia.org/wiki/Dendrite
design patterns
DFT"Discrete Fourier transform".
DGX Station, NVIDIAUna workstation para equipos de ciencia de datos. NVIDIA DGX Station es la workstation más rápida del mundo para desarrollo de inteligencia artificial avanzada. Este sistema optimizado e integrado completamente permite a tu equipo comenzar más rápido y experimentar con menos esfuerzo con el poder de un centro de datos en tu oficina. 72X más rápida que un servidor de doble CPU.
https://www.nvidia.com/en-us/data-center/dgx-station
DGX-1, NVIDIAPara investigación en inteligencia artificial. El camino más rápido hacia deep learning. Construir una plataforma para deep learning va mucho más allá de seleccionar un servidor y GPUs. Un compromiso para implementar inteligencia artificial en tu negocio involucra cuidadosamente seleccionar e integrar software complejo con hardware. NVIDIA DGX-1 acelera tu iniciativa con una solución que funciona nada más sacarlo de la caja, por lo que puedes ganar percepciones en horas en lugar de semanas o meses. Red Hat Enterprise Linux en sistemas NVIDIA DGX-1. 140X más rápida que un servidor de una CPU.
https://www.nvidia.com/en-us/data-center/dgx-1
DGX-2, NVIDIAEl sistema de inteligencia artificial más poderoso del mundo para los desafíos de inteligencia artificial más complejos. Experimenta nuevos niveles de escala y velocidad de inteligencia artificial con NVIDIA DGX-2, el primer sistema de 2 petaFLOPS que combina 16 GPUs interconectadas completamente para 10X el rendimiento de deep learning. Es empoderada mediante software NVIDIA DGX y una arquitectura escalable construida sobre NVIDIA NVSwitch, por lo que puedes asumir los desafíos de inteligencia artificial más complejos del mundo. DGX-2, infraestructura esencial de inteligencia artificial Enterprise. 10X más rápida que DGX-1.
https://www.nvidia.com/en-us/data-center/dgx-2
diferenciación automática
DIGITS, NVIDIADeep Learning GPU Training System (DIGITS). Sistema de entrenamiento de GPU de deep learning. Pone el poder de deep learning en las manos de ingenieros y científicos de datos. DIGITS puede ser usado para entrenar rápidamente la red neuronal (DNNs) altamente precisa para clasificación de imágenes, segmentación y tareas de detección de objetos.
https://developer.nvidia.com/digits
DNN"Deep Neural Network".
DopaminaNeurociencia. Cada vez que un neurotransmisor como la dopamina llega a una sinapsis, los circuitos que desencadenan un pensamiento, una motivación o una acción son vía prioritaria en el cerebro. En las adicciones, la dopamina actúa como un neurotransmisor tan potente que las personas, objetos, situaciones y lugares en que se consumió la droga quedan firmemente fijados en la memoria.
https://es.wikipedia.org/wiki/Dopamina
DopamineNeuroscience.
https://en.wikipedia.org/wiki/Dopamine
DopamineGoogle repository.
https://github.com/google/dopamine
Edge deviceEs un dispositivo que provee un punto de entrada a redes core de proveedor de servicio o enterprise. Ejemplos incluyen routers, switches de enrutamiento, dispositivos de acceso integrado (IADs), multeprexadores, y una variedad de redes de área metropolitana (MAN) y dispositivos de acceso a redes de área ancha (WAN).
Eigen
Electron cryotomographyCryo-electron tomography. VERY HIGH SPATIAL RESOLUTION (~ 1-4 nm).
https://en.wikipedia.org/wiki/Electron_cryotomography
https://xformulas.net/images/relative_sizes.jpg
entrenar red neuronal
https://www.tensorflow.org/api_docs/python/tf/keras/Sequential#fit
Error cuadrático medio
https://es.wikipedia.org/wiki/Error_cuadr%C3%A1tico_medio
https://www.tensorflow.org/api_docs/python/tf/keras/losses/MeanSquaredError
https://www.tensorflow.org/api_docs/python/tf/keras/Sequential#evaluate
fastText
feed-forward (red)Prealimentada (alimentada hacia adelante).
Feedforward Neural Network (FNN)Red neuronal prealimentada (alimentada hacia adelante). Es una red neuronal en la que las conexiones entre los nodos no forman un ciclo. Ver también RNN.
FLOPS (flop/s)Floating point operations per second. Operaciones de coma flotante por segundo.
FNNVer Feedforward Neural Network.
función de activación
gastTensorFlow. Es un paquete de Python.
Gensim
Google AI
https://ai.google/
Google Brain (team)
https://ai.google/research/teams/brain
Google Developer DayDía del Desarrollador de Google.
Google I/OEs una conferencia de desarrolladores anual sostenida por Google en Mountain View, California. I/O fue inaugurada en 2008, y es organizada por el equipo ejecutivo. "I/O" representa input/output, así como el eslogan "Innovation in the Open". El formato del evento es similar al Google Developer Day.
https://events.google.com/io
google-pastaTensorFlow. Es un paquete de Python.
GoogLeNetEs un modelo.
gradient
https://en.wikipedia.org/wiki/Gradient
gradiente
https://es.wikipedia.org/wiki/Gradiente
Gradient Descent algorithmA learning algorithm, training algorithm or optimization algorithm. See also "optimizer".
https://en.wikipedia.org/wiki/Gradient_descent
https://www.tensorflow.org/api_docs/python/tf/train/GradientDescentOptimizer
Set the training algorithm (the optimizer) and the learning rate.
https://www.tensorflow.org/api_docs/python/tf/keras/Sequential#compile
Train the neural network.
https://www.tensorflow.org/api_docs/python/tf/keras/Sequential#fit
grpcioTensorFlow. Es un paquete de Python.
h5pyTensorFlow. Es un paquete de Python.
Haar training
Hadoop, Apache
HDRHigh dynamic range.
Hebb, regla deNeurociencia. Potenciación a largo plazo (PLP). Regla de Hebb (1949): Si una neurona presináptica A se activa repetidas veces a la vez que la neurona postsináptica B, hay un cambio metabólico que refuerza la eficacia de A excitando B.
Human Brain Project
https://en.wikipedia.org/wiki/Human_Brain_Project
https://www.youtube.com/watch?v=a1XcY-xAvos
https://www.youtube.com/channel/UCd5sWIVavCp4hzp2mFWI2qg
I/OVer Google I/O.
Inception-v3Es un modelo.
inferenciaCálculo de las salidas de la red neuronal.
Calculate the output of the neural network.
https://www.tensorflow.org/api_docs/python/tf/keras/Sequential#predict
Integrated Performance Primitives (IPP), IntelIt may be used to improve the performance of color conversion, Haar training and DFT functions of the OpenCV library.
IPPSee "Integrated Performance Primitives".
KerasKeras is a high-level API to build and train deep learning models.
https://keras.io/
https://www.tensorflow.org/api_docs/python/tf/keras
Keras-ApplicationsTensorFlow. Es un paquete de Python.
Keras-PreprocessingTensorFlow. Es un paquete de Python.
LearningComputing.
LearningNeuroscience.
learning algorithmLearning algorithm, training algorithm or optimization algorithm.
https://www.google.com/search?source=hp&ei=9LFCXcWeMeyOlwT6_Z2YAw&q=%22neural+network%22+%22learning+algorithms%22+site%3Aedu&oq=%22neural+network%22+%22learning+algorithms%22+site%3Aedu&gs_l=psy-ab.3...1471.1471..4314...0.0..0.110.174.1j1......0....2j1..gws-wiz.....0.5qTRLms_d90&ved=0ahUKEwjF6Jb_ruHjAhVsx4UKHfp-BzMQ4dUDCAU&uact=5
https://www.google.com/search?source=hp&ei=WLJCXfnDFI-TlwTl7KU4&q=%22neural+network%22+%22learning+algorithms%22+site%3Aac.uk&oq=%22neural+network%22+%22learning+algorithms%22+site%3Aac.uk&gs_l=psy-ab.3...1525.1525..2746...0.0..0.116.175.1j1......0....2j1..gws-wiz.....0.49O3UCL1o2s&ved=0ahUKEwj5z9Gur-HjAhWPyYUKHWV2CQcQ4dUDCAU&uact=5
Levenberg–Marquardt algorithm
https://en.wikipedia.org/wiki/Levenberg%E2%80%93Marquardt_algorithm
LSTM, red"Long Short-Term Memory". Es un tipo especial de red neuronal recurrente (RNN) capaz de aprender dependencias long-term (largo plazo).
machine learning
MarkdownTensorFlow. Es un paquete de Python.
MATLABEs una plataforma de programación diseñada para ingenieros y científicos.
MATLAB Deep Learning Toolbox
https://www.mathworks.com/products/deep-learning.html
https://www.mathworks.com/help/deeplearning/ug/choose-a-multilayer-neural-network-training-function.html
MATLAB Deep Network Designer
https://www.mathworks.com/help/deeplearning/ref/deepnetworkdesigner-app.html
Mean squared error
https://en.wikipedia.org/wiki/Mean_squared_error
https://www.tensorflow.org/api_docs/python/tf/keras/losses/MeanSquaredError
Calculate the "mean square error" (mse).
https://www.tensorflow.org/api_docs/python/tf/keras/Sequential#evaluate
MKL, IntelIntel Math Kernel Library. Librería de núcleo matemático de Intel. Es una librería de rutinas matemáticas optimizadas para ciencia, ingeniería y aplicaciones financieras. Las funciones matemáticas núcleo incluyen BLAS, LAPACK, ScaLAPACK, solucionadores dispersos, transformada de Fourier rápida y matemáticas de vector. Están optimizadas para procesadores Intel. Esta librería está disponible para Windows, Linux y macOS.
MKL-DNN, IntelIntel "Math Kernel Library for Deep Neural Networks". Librería de núcleo de matemáticas de Intel para redes neuronales profundas.
ML"Machine Learning".
MLP"Multilayer Perceptron".
https://en.wikipedia.org/wiki/Multilayer_perceptron
ModelNeural network.
ModeloRed neuronal.
MXNetEs un framework de deep learning que te permite mezclar los sabores de programación simbólica y programación imperativa para maximizar la eficiencia y la productividad. La libería es portable y ligera, y se escala a múltiples GPUs y múltiples máquinas.
https://mxnet.apache.org/
Nernst equationNeuroscience.
https://en.wikipedia.org/wiki/Nernst_equation
Nervous systemNeuroscience.
https://en.wikipedia.org/wiki/Nervous_system
neural network
neural networkExample of simple neural network in Python with TensorFlow.
https://xformulas.net/source_code/python/simple_neural_network.php
https://xformulas.net/images/simple_neural_network.jpg
NeuronNeuroscience.
https://en.wikipedia.org/wiki/Neuron
Neuroscience
https://en.wikipedia.org/wiki/Neuroscience
NeurotransmitterNeuroscience.
https://en.wikipedia.org/wiki/Neurotransmitter
NLP"Natural Language Processing".
NLTK"Natural Language Toolkit".
NumPyNumPy is a scientific computing package for Python.
https://www.numpy.org/
import numpy as np
xx = np.array([[5.0, 1.0, 0.0, 3.0]])
print(xx.shape)
NVCaffeNVIDIA Caffe. Es un fork mantenido por NVIDIA de Caffe ajustado para GPUs NVIDIA, particularmente en configuraciones multi GPU. Incluye soporte de multiprecisión así como otras características mejoradas de NVIDIA y ofrece rendimiento especialmente ajustado para NVIDIA DGX-2, DGX-1 y DGX Station.
http://docs.nvidia.com/deeplearning/dgx/caffe-release-notes/index.html
http://caffe.berkeleyvision.org/
NVSwitch, NVIDIASe usa en DGX-2.
ONNX"Open Neural Network Exchange". Es un formato para modelos de deep learning que permite interoperabilidad entre diferentes frameworks de IA. ONNX está siendo desarrollado por Microsoft, Amazon y Facebook como un proyecto open source. En su primera versión soportará los frameworks de deep learning Caffe2, PyTorch, MXNet y Microsoft CNTK. ONNX es una representación de modelo compartida para interoperabilidad framework y optimización compartida. Codesarrollado por Microsoft y soportado por muchos otros, ONNX permite a los desarrolladores mover modelos entre frameworks tales como CNTK, Caffe2, MXNet y PyTorch.
https://onnx.ai/
OpenCLSimilar to CUDA, but runs on anything. Usually slower on NVIDIA hardware.
https://en.wikipedia.org/wiki/OpenCL
OpenCVOpenCV (Open source computer vision) is a library of programming functions mainly aimed at real-time computer vision.
https://en.wikipedia.org/wiki/OpenCV
https://opencv.org/
OpenNI"Open Natural Interaction". The OpenNI Framework contains a set of open source APIs that provide support for natural interaction with devices via methods such as voice command recognition, hand gestures, and body motion tracking.
OpenVino toolkitDevelop applications and solutions that emulate human vision with the Intel® Distribution of OpenVINO™ toolkit. Based on convolutional neural networks (CNN), the toolkit extends workloads across Intel® hardware (including accelerators) and maximizes performance.
https://software.intel.com/en-us/openvino-toolkit
OpenVXOpenVX is an open, royalty-free standard for cross platform acceleration of computer vision applications.
https://en.wikipedia.org/wiki/OpenVX
Optical coherence tomographyHigh spatial resolution (< 1 um). See also "Cryo-electron tomography".
https://en.wikipedia.org/wiki/Optical_coherence_tomography
https://xformulas.net/images/relative_sizes.jpg
optimization algorithmLearning algorithm, training algorithm or optimization algorithm.
https://www.google.com/search?source=hp&ei=U7NCXbyVHoacaca7kxA&q=%22neural+network%22+%22optimization+algorithms%22+site%3Aedu&oq=%22neural+network%22+%22optimization+algorithms%22+site%3Aedu&gs_l=psy-ab.3...1462.1462..2038...0.0..0.106.170.1j1......0....2j1..gws-wiz.....0.xKJVh5eBOhM&ved=0ahUKEwj8irOmsOHjAhUGThoKHcbdBAIQ4dUDCAU&uact=5
https://www.google.com/search?source=hp&ei=c7NCXbzcK8yua-7hg8AB&q=%22neural+network%22+%22optimization+algorithms%22+site%3Aac.uk&oq=%22neural+network%22+%22optimization+algorithms%22+site%3Aac.uk&gs_l=psy-ab.3...1195.1195..2858...0.0..0.100.175.1j1......0....2j1..gws-wiz.....0.sg2H4zd0US4&ved=0ahUKEwj84eG1sOHjAhVM1xoKHe7wABgQ4dUDCAU&uact=5
optimizerTensorFlow.
https://www.tensorflow.org/api_docs/python/tf/train/GradientDescentOptimizer
Set the training algorithm (the optimizer) and the learning rate.
https://www.tensorflow.org/api_docs/python/tf/keras/Sequential#compile
PaddlePaddleProporciona un interfaz intuitivo y flexible para cargar datos y especificar estructuras de modelos. Soporta CNN, RNN, variantes múltiples y configura modelos profundos complicados fácilmente. Proporciona operaciones optimizadas extremadamente, reciclaje de memoria y comunicación de red. PaddlePaddle hace fácil escalar recursos de computación heterogeneos y almacenamiento para acelerar el proceso de entrenamiento.
http://www.paddlepaddle.org/
Pandas
peta10^15
PlacerNeurociencia.
PlaidML
PleasureNeuroscience.
http://thebrain.mcgill.ca/flash/d/d_03/d_03_cr/d_03_cr_que/d_03_cr_que.html
Potencial de acciónNeurociencia. Los "potenciales de acción" se propagan extremadamente despacio, a unos 10 m/s.
https://es.wikipedia.org/wiki/Potencial_de_acci%C3%B3n
"Las velocidades de conducción del potencial de acción varían, si bien 10 m/s es una velocidad típica. Debemos recordar que desde el inicio hasta el final la duración del potencial de acción es de unos 2 ms. A partir de este dato, podemos calcular la longitud de la membrana que está implicada en el potencial de acción en cualquier momento:
10 m/s x 2 x 10^-3 s = 2 x 10^-2 m.
Así pues, un potencial de acción que se desplaza a 10 m/s abarca 2 cm del axón."
Transcripción de fragmento del libro "NEUROCIENCIA. La exploración del cerebro", 3ª edición, de Mark F. Bear, Barry Connors y Michael Paradiso. Capítulo 4, página 94.
PowerAI Enterprise, IBMPlataforma de inteligencia artificial de IBM.
https://www.ibm.com/us-en/marketplace/deep-learning-platform
propagation constant
protobufTensorFlow. Es un paquete de Python.
Pyro, UberSoftware para programación probabilística.
PythonPython is an interpreted, high-level, general-purpose programming language.
https://en.wikipedia.org/wiki/Python_(programming_language)
PyTorchFacebook. Es una librería de machine learning para Python basada en Torch usada para aplicaciones tales como procesado de lenguaje natural. Está desarrollada principalmente por el grupo de investigación de inteligencia artificial de Facebook. Proporciona 2 características de alto nivel: computación "Tensor" (como NumPy) con aceleración GPU fuerte, y redes neuronales profundas construidas sobre un sistema autodiff basado en cinta. PyTorch soporta varios tipos de tensores. PyTorch es un framework computacional de tensores acelerado por GPU con front end Python. Funcionalmente puede ser fácilmente extendido con librerías Python comunes tales como NumPy, SciPy y Cython. La diferenciación automática es realizada con un sistema basado en cinta en ambos un funcional y nivel de capa de red neuronal. Esta funcionalidad trae un alto nivel de flexibilidad y velocidad como un framework deep learning y proporciona funcionalidad tipo NumPy acelerada. PyTorch es una plataforma de aprendizaje profundo de fuente abierta que provee un camino sin problemas desde prototipado de investigación hasta desarrollo de producción.
https://pytorch.org/
PyTorch TensorSimilares a los arrays NumPy, con el añadido de que los tensores pueden también ser usados sobre GPUs que soporten CUDA.
R
R-CNNLa "R" se refiere a región. Para detección de objetos. Ver CNN.
RCNNVer RCNN.
red neuronal
Regla de HebbNeurociencia. Potenciación a largo plazo (PLP). Regla de Hebb (1949): Si una neurona presináptica A se activa repetidas veces a la vez que la neurona postsináptica B, hay un cambio metabólico que refuerza la eficacia de A excitando B.
relative sizesNeuroscience.
https://xformulas.net/images/relative_sizes.jpg
ResNet-101Es un modelo.
ResNet-50Es un modelo.
Reward circuitNeuroscience.
Reward systemNeuroscience.
https://en.wikipedia.org/wiki/Reward_system
RNN"Recurrent Neural Network". Es una clase de red neuronal artificial donde las conexiones entre nodos forman un gráfico dirigido a lo largo de una secuencia. Esto permite exhibir un comportamiento dinámico temporal para una secuencia de tiempo. A diferencia de las FNNs, las RNNs pueden usar su estado interno (memoria) para procesar secuencias de entradas.
scikit-learn
SciPyEs una librería de Python.
SGD"Stochastic Gradient Descent". Descenso de gradiente estocástico.
Sigmoid function
https://en.wikipedia.org/wiki/Sigmoid_function
https://www.tensorflow.org/api_docs/python/tf/keras/activations/sigmoid
Sigmoide, función
https://es.wikipedia.org/wiki/Funci%C3%B3n_sigmoide
SinapsisNeurociencia.
https://es.wikipedia.org/wiki/Sinapsis
Sistema de recompensaNeurociencia. Ver "Reward system".
Sistema Nervioso animalNeurociencia.
Si tratamos de buscar semejanzas de una red neuronal artificial con el sistema nervioso animal, cada peso en el sistema nervioso animal (w[i,j]) sería algo parecido a las características de la sinapsis y las neuritas presináptica y postsináptica.
La repetición para evitar el dolor y maximizar la "satisfacción" (placer) a lo largo del tiempo, es lo que provoca el aprendizaje en el sistema nervioso animal. En las redes neuronales el aprendizaje también se consigue mediante la repetición (los pesos w[i,j] cambian solamente un poco en cada iteración). El mayor o menor tránsito de potenciales de acción cambia las propiedades eléctricas de las sinapsis y las neuronas.
Cuanto mejor son satisfechas las necesidades (menos dolor, más "satisfacción"), más dopamina se libera, que provoca que aumente el tamaño y la efectividad de los circuitos neuronales (pensamientos) que se encuentren activos, es decir, aumentan los pesos w[i,j] de las conexiones de esos circuitos.
El objetivo del sistema nervioso parece que debería ser satisfacer lo mejor posible las necesidades a lo largo del tiempo. Esto está fuertemente relacionado con la Teoría de la Evolución de Charles Darwin, y parece claro que es una consecuencia necesaria de dicha teoría.
Sigmund Freud también se refiere al placer y dice algo parecido (entre otras cosas).
En general el objetivo del sistema nervioso es maximizar el placer (menos dolor, más "satisfacción") desde el presente hasta un tiempo futuro que depende mucho de lo aprendido (incluidas las creencias religiosas).
Si pudiéramos medir en cada instante con un número como de bien están siendo satisfechas las necesidades, el objetivo del sistema nervioso debería ser maximizar la integral de ese número desde el instante de tiempo presente hasta el tiempo en el que vamos a morir, o incluso hasta el infinito, si es lo que dice tu religión y estás absolutamente convencido de que es cierto lo que dice tu religión.
Ver "Regla de Hebb", "Reward system" y "dopamina".
sixTensorFlow. Es un paquete de Python.
snippet[Referred to OpenCV]
SynapseNeuroscience.
https://en.wikipedia.org/wiki/Synapse
TBBSee "Threading Building Blocks".
TensorArray multidimensional.
tensorboardTensorFlow. Es un paquete de Python.
TensorFlowGoogle. Es una librería para computación numérica de alto rendimiento. Su arquitectura flexible permite fácil desarrollo de computación a través de una variedad de plataformas (CPUs, GPUs, TPUs), y desde escritorios hasta clusters de servidores hasta dispositivos edge y móviles. TensorFlow es una librería para computación numérica que usa gráficos de flujo de datos. Los nodos en el gráfico representan operaciones matemáticas, mientras que los bordes de gráfico representan los arrays de datos multidimensionales (tensores) que fluyen entre ellos. Esta arquitectura flexible te permite desplegar computación para una o más CPUs o GPUs en un escritorio, servidor, o dispositivo móvil sin reescribir código. TensorFlow fue originalmente desarrollada por investigadores e ingenieros trabajando en el equipo Google Brain dentro de la organización de investigación de inteligencia de máquina de Google para los propósitos de conducir machine learning e investigación de redes neuronales profundas. El sistema es bastante general para ser aplicable en una amplia variedad de otros dominios, también.
https://www.tensorflow.org/
tensorflowTensorFlow. Es un paquete de Python.
tensorflow-estimatorTensorFlow. Es un paquete de Python.
TensorRT Inference ServerServidor de inferencia de TensorRT. Provee una solución de inferencia de centro de datos optimizada para GPUs NVIDIA. Maximiza la utilización de inferencia y rendimiento sobre GPUs vía un punto final de gRPC o HTTP, permitiendo a clientes remotos pedir inferencia para cualquier modelo que esté siendo manejado por el servidor, así como suministrando métricas en tiempo real sobre latencia y peticiones. El servidor de inferencia TensorRT provee una solución de inferenciación de nube optimizada para GPUs NVIDIA.
https://docs.nvidia.com/deeplearning/sdk/
TensorRT, NVIDIAEs una librería de C++ que facilita la inferencia de rendimiento alto sobre unidades de procesamiento gráfico (GPUs) de NVIDIA. TensorRT toma una red entrenada, la cual consiste de una definición de red y un conjunto de parámetros entrenados, y produce un motor de ejecución optimizado altamente el cual realiza inferencia para esa red. Puedes describir una red de TensorRT usando un API de Python o C++, o puedes importar un modelo existente de Caffe, ONNX o TensorFlow usando uno de los parsers suministrados. TensorRT provee API's vía C++ y Python que ayudan a expresar modelos de deep learning vía el API de Definición de la Red o cargar un modelo predefinido vía los parsers que permiten a TensorRT optimizar y ejecutarlos sobre una GPU NVIDIA. TensorRT aplica optimizaciones de gráfico, fusión de capas, entre otras optimizaciones, mientras también encontrar la implementación más rápida de ese modelo aprovechando una colección diversa de kernels optimizados altamente. TensorRT también suministra un tiempo de ejecución que puedes usar para ejecutar esa red sobre todas las GPUs de NVIDIA desde la generación Kepler hacia adelante.
http://docs.nvidia.com/deeplearning/sdk/
tera10^12
termcolorTensorFlow. Es un paquete de Python.
TheanoTheano es una librería Python que te permite definir, optimizar, y evaluar expresiones matemáticas que involucran arrays multidimensionales eficientemente. Theano ha estado alimentando investigaciones científicas intensivas computacionalmente de gran escala desde 2007. Pero es también bastante accesible para ser usado en el aula.
http://deeplearning.net/software/theano
Threading Building Blocks, IntelIt is used inside OpenCV for parallel code snippets. Using this will make sure that the OpenCV library will take advantage of all the cores you have in your system's CPU.
TomografíaExtraer red neuronal de un animal muerto.
https://es.wikipedia.org/wiki/Tomograf%C3%ADa
https://elpais.com/sociedad/2013/06/20/actualidad/1371742600_459472.html
TomographyExtract neural network from a dead animal. See also "Cryo-electron tomography".
https://en.wikipedia.org/wiki/Tomography
https://www.youtube.com/watch?v=ldXEuUVkDuw
https://www.youtube.com/watch?v=aoUgQtaotg4
https://www.youtube.com/watch?v=gv6Gxbp8Rvs
TorchEs un framework de computación científica que ofrece librerías de optimización y red neuronal populares que son fáciles de usar sin embargo proporcionan flexibilidad máxima para construir topologías de red neuronal complejas. Torch es un framework de computación científica con soporte amplio para algoritmos de deep learning. Torch es fácil de usar y eficiente, gracias a un lenguaje de script rápido y fácil, Lua, y a una implementación C/CUDA subyacente.
http://torch.ch/
TPU"Tensor Processing Unit". A tensor processing unit (TPU) is an AI accelerator application-specific integrated circuit (ASIC) developed by Google specifically for neural network machine learning.
https://en.wikipedia.org/wiki/Tensor_processing_unit
train neural networkSee "learning".
Train the neural network.
https://www.tensorflow.org/api_docs/python/tf/keras/Sequential#fit
training algorithmLearning algorithm, training algorithm or optimization algorithm.
https://www.google.com/search?source=hp&ei=jLJCXYHkKY-WlwSpmYjoDQ&q=%22neural+network%22+%22training+algorithms%22+site%3Aedu&oq=%22neural+network%22+%22training+algorithms%22+site%3Aedu&gs_l=psy-ab.3...1373.1373..1962...0.0..0.99.167.2......0....2j1..gws-wiz.....0.9jpwS9FuxFQ&ved=0ahUKEwiB2szHr-HjAhUPy4UKHakMAt0Q4dUDCAU&uact=5
https://www.google.com/search?source=hp&ei=v7JCXd9wkJuXBOjfpYAM&q=%22neural+network%22+%22training+algorithms%22+site%3Aac.uk&oq=%22neural+network%22+%22training+algorithms%22+site%3Aac.uk&gs_l=psy-ab.3...1555.1555..3421...0.0..0.106.170.1j1......0....2j1..gws-wiz.....0.dObZ2OrNb4I&ved=0ahUKEwifzMzfr-HjAhWQzYUKHehvCcAQ4dUDCAU&uact=5
training functionSee "training algorithm".
VGG-16Es un modelo.
VGG-19Es un modelo.
Watson
https://en.wikipedia.org/wiki/Watson_(computer)
https://elpais.com/diario/2011/02/18/radiotv/1297983603_850215.html
wave propagation
https://en.wikipedia.org/wiki/Wave_propagation
WerkzeugTensorFlow. Es un paquete de Python.
word2vec
wraptTensorFlow. Es un paquete de Python.

Generated on 20190818_142513