Action potential |
Neuroscience. https://en.wikipedia.org/wiki/Action_potential "action potential" https://www.google.com/search?q=%22action+potential%22&sxsrf=ALeKk00vin2cblJ23VA8W-KGjSWJuS-Q7g:1597133752341&source=lnms&tbm=isch&sa=X&ved=2ahUKEwje9d3v2pLrAhU6CWMBHUOZCccQ_AUoAXoECBIQAw&biw=1920&bih=910 |
Activation function |
In artificial neural networks, the activation function of a node defines the output of that node given an input or set of inputs. https://en.wikipedia.org/wiki/Activation_function https://www.tensorflow.org/api_docs/python/tf/keras/activations https://www.tensorflow.org/api_docs/python/tf/keras/activations/sigmoid |
AlexNet |
Es un modelo. https://en.wikipedia.org/wiki/AlexNet |
Algoritmo de descenso del gradiente |
See also "neural network". Example of simple neural network in C++ based on the Gradient Descent algorithm (NEW 2019-12-09) http://xformulas.net:57790/!/#xrepo/view/head/cpp/Neural_Network.cpp |
Amino acid |
Neuroscience. Aminoácido. Does each amino acid have a Nitrogen atom? Maybe the positions of the Nitrogen atoms determine the type of protein or the type of ion channel and its spatial orientation using some type of tomography. https://en.wikipedia.org/wiki/Amino_acid Los 20 aminoácidos diferentes que usan las neuronas para formar proteínas. * Ácido aspártico. https://en.wikipedia.org/wiki/Aspartic_acid * Ácido glutámico. https://en.wikipedia.org/wiki/Glutamic_acid * Alanina. https://en.wikipedia.org/wiki/Alanine * Arginina. https://en.wikipedia.org/wiki/Arginine * Asparagina. https://en.wikipedia.org/wiki/Asparagine * Cisteína. https://en.wikipedia.org/wiki/Cysteine * Fenilalanina. https://en.wikipedia.org/wiki/Phenylalanine * Glicina. https://en.wikipedia.org/wiki/Glycine * Glutamina. https://en.wikipedia.org/wiki/Glutamine * Histidina. https://en.wikipedia.org/wiki/Histidine * Isoleucina. https://en.wikipedia.org/wiki/Isoleucine * Leucina. https://en.wikipedia.org/wiki/Leucine * Lisina. https://en.wikipedia.org/wiki/Lysine * Metionina. https://en.wikipedia.org/wiki/Methionine * Prolina. https://en.wikipedia.org/wiki/Proline * Serina. https://en.wikipedia.org/wiki/Serine * Tirosina. https://en.wikipedia.org/wiki/Tyrosine * Treonina. https://en.wikipedia.org/wiki/Threonine * Triptófano. https://en.wikipedia.org/wiki/Tryptophan * Valina. https://en.wikipedia.org/wiki/Valine |
ANN | "Artificial Neural Network". |
Angstrom |
Unit of length. 1 [Angstrom] = 1E-10 [m] |
AutoML |
https://cloud.google.com/automl/ |
Axon |
Neuroscience. It is the output of a neuron. See "Dendrite" and w[k][i][j]. https://en.wikipedia.org/wiki/Axon |
absl-py |
Related to TensorFlow. Abseil Python Common Libraries. https://pypi.org/project/absl-py/ https://github.com/abseil/abseil-py |
agonista de receptor | Neurociencia. Fármaco o sustancia que se une a un receptor y lo activa. |
aminoácido | Neurociencia. Amino acid. Cada una de las unidades químicas con las que se construyen las moléculas de proteína, formada por un átomo de Carbono central, un grupo amino, un grupo carboxilo y un grupo R variable. |
antagonista de receptor | Neurociencia. Fármaco o sustancia que se une a un receptor e inhibe su función. |
apoptosis | Neurociencia. Mecanismo de muerte celular. |
artificial intelligence | |
astor |
Related to TensorFlow. Es un paquete de Python. https://pypi.org/project/astor/ |
atenuación, constante de | Electromagnetismo. Attenuation constant. Caracteriza cada tipo de sustancia dentro del sistema nervioso. |
attenuation constant | Electromagnetism. Constante de atenuación. Characterizes each type of substance within the nervous system. |
automatic differentiation | Related to the computation of the gradient. It can be implemented using C++ operators overloading. |
Bicapa fosfolipídica |
Neurociencia. Phospholipid bilayer. La membrana neuronal contiene una capa de fosfolípidos de 2 moléculas de grosor. El núcleo de la bicapa es lipídico, lo que crea una barrera al agua y a los iones y moléculas solubles en agua. Ver también "membrana neuronal", "fosfolípido", "canal iónico" y "bomba de iones". https://www.google.com/search?q=bicapa+fosfolip%C3%ADdica&sxsrf=ALeKk00Bnbl_DNHV90sRuLA-VklPKJ8g_w:1596919218393&source=lnms&tbm=isch&sa=X&ved=2ahUKEwi83PzVu4zrAhVE8uAKHRFeDp4Q_AUoAXoECBIQAw&biw=1920&bih=910 |
BigDL | Distributed Deep Learning on Apache Spark. |
Bomba de Calcio | Neurociencia. Bomba (de iones) de Calcio. Calcium pump. Bomba iónica que elimina los iones Ca2+ del interior de la neurona. |
Bomba de Sodio-Potasio |
Neurociencia. Bomba (de iones) de Sodio-Potasio. Sodium–Potassium pump. https://es.wikipedia.org/wiki/Bomba_sodio-potasio Sodium–Potassium pump https://www.google.com/search?q=Sodium%E2%80%93Potassium+pump&sxsrf=ALeKk03RgTV6uHzui3dbT19PdxY14wOLFQ:1596996275764&source=lnms&tbm=isch&sa=X&ved=2ahUKEwjMw-Xd2o7rAhXrBWMBHS6fA8MQ_AUoAXoECBIQAw&biw=1920&bih=910 |
Bosques Aleatorios | Ver "Random forest". |
BrainScript | Lenguaje de descripción de modelo de CNTK. |
Brain Computer interface | |
backpropagation | Retropropagación. Propagación hacia atrás. |
backpropagation, algoritmo | Algoritmo de retropropagación. Algoritmo de propagación hacia atrás. |
bagging | Related to "Random forest". |
bias | It can be always or almost always equal to zero. See "neurona". |
bomba de iones | Neurociencia. Bomba iónica. Además de las proteínas que forman canales, otras proteínas se agrupan para formar bombas de iones. Las bombas de iones son enzimas que usan la energía liberada por la rotura del ATP para transportar determinados iones a través de la membrana neuronal. Por ejemplo, transportan Na+ y Ca2+ desde el interior de la neurona al exterior. Ver también "enzima", "bomba de Sodio-Potasio" y "bomba de Calcio". |
botón terminal | Neurociencia. Ver "terminación axónica". |
Caenorhabditis elegans |
First animal resurrected by humans in a supercomputer? https://elpais.com/sociedad/2011/12/08/actualidad/1323359742_446739.html |
Caffe |
"Convolutional Architecture for Fast Feature Embedding". It is a deep learning framework, originally developed at University of California, Berkeley. It is open source, under a BSD license. It is written in C++, with a Python interface. Framework de deep learnig escrito en C++ con un interfaz Python. Soporta muchos tipos diferentes de arquitecturas de deep learning orientadas a la clasificación de imágenes y a la segmentación de imágenes. Soporta CNN, RCNN, LSTM y diseños de redes neuronales conectadas completamente. Caffe soporta librerías de kernel computacional basadas en GPU y CPU tales como NVIDIA cuDNN e Intel MKL. Caffe está siendo usada en proyectos de investigación académica, protitipos startup, e incluso aplicaciones industriales a gran escala en visión, habla y multimedia. https://en.wikipedia.org/wiki/Caffe_(software) http://caffe.berkeleyvision.org/ |
Caffe2 |
Framework de deep learning ligero, modular y escalable. Incluye nuevas características como RNNs. Caffe2 es un framework de deep learning diseñado para expresar fácilmente todos los tipos de modelos, por ejemplo CNN, RNN, y más, en un API basado en Python amigable, y ejecutarlos usando un backend de CUDA y C++ altamente eficiente. https://caffe2.ai/ |
CaffeOnSpark | Framework de deep learning distribuido creado por Yahoo! usando Spark. |
Caffe, NVIDIA |
Ver NVCaffe. http://caffe.berkeleyvision.org/ |
Cell membrane |
Neuroscience. See also "neuronal membrane". https://en.wikipedia.org/wiki/Cell_membrane |
Chainer |
Es un framework de deep learning basado en Python apuntando a la flexibilidad. Provee APIs de diferenciación automática basados en el enfoque define-por-ejecución (define-by-run), también conocidas como gráficas computacionales dinámicas, así como APIs de alto nivel orientadas a objetos para construir y entrenar redes neuronales. Soporta CUDA y cuDNN usando CuPy para inferencia y entrenamiento de alto rendimiento. https://chainer.org/ |
Chemical synapse |
Neuroscience. https://en.wikipedia.org/wiki/Chemical_synapse |
Classical conditioning | Neuroscience. |
CNN | "Convolutional Neural Network". |
CNTK |
Microsoft "Cognitive Toolkit". The Microsoft Cognitive Toolkit (CNTK) is an open-source toolkit for commercial-grade distributed deep learning. It describes neural networks as a series of computational steps via a directed graph. CNTK allows the user to easily realize and combine popular model types such as feed-forward DNNs, convolutional neural networks (CNNs) and recurrent neural networks (RNNs/LSTMs). CNTK implements stochastic gradient descent (SGD, error backpropagation) learning with automatic differentiation and parallelization across multiple GPUs and servers. CNTK can be included as a library in your Python, C#, or C++ programs, or used as a standalone machine-learning tool through its own model description language (BrainScript). In addition you can use the CNTK model evaluation functionality from your Java programs. CNTK supports 64-bit Linux or 64-bit Windows operating systems. To install you can either choose pre-compiled binary packages, or compile the toolkit from the source provided in GitHub. https://docs.microsoft.com/en-us/cognitive-toolkit/ https://github.com/Microsoft/CNTK |
Cognitive Toolkit | Ver CNTK. |
ConvNet | Ver CNN. |
CoreNLP |
Stanford CoreNLP provides a set of human language technology tools. It can give the base forms of words, their parts of speech, whether they are names of companies, people, etc., normalize dates, times, and numeric quantities, mark up the structure of sentences in terms of phrases and syntactic dependencies, indicate which noun phrases refer to the same entities, indicate sentiment, extract particular or open-class relations between entity mentions, get the quotes people said, etc. https://github.com/stanfordnlp/CoreNLP https://stanfordnlp.github.io/CoreNLP/ |
Coulomb law |
Electromagnetism. Ley de Coulomb. https://en.wikipedia.org/wiki/Coulomb%27s_law |
Cryopreservation | |
Cryo-electron tomography | See "Electron cryotomography". |
CUDA |
Programming GPUs. Write C-like code that runs directly on the GPU. Optimized APIs: cuBLAS, cuFFT, cuDNN, etc. Es una plataforma de computación paralela y modelo de programación que activa incrementos dramáticos en rendimiento de computación aprovechando el poder de las GPUs NVIDIA. https://docs.nvidia.com/cuda/ |
CUDA C++ |
CUDA C++ is a extension of the ISO C++ language which allows you to use familiar C++ tools to write parallel programmings that run on GPUs. https://docs.nvidia.com/cuda/cuda-c-programming-guide/ |
CUDA Toolkit |
Develop, Optimize and Deploy GPU-accelerated Apps. he NVIDIA® CUDA® Toolkit provides a development environment for creating high performance GPU-accelerated applications. With the CUDA Toolkit, you can develop, optimize and deploy your applications on GPU-accelerated embedded systems, desktop workstations, enterprise data centers, cloud-based platforms and HPC supercomputers. The toolkit includes GPU-accelerated libraries, debugging and optimization tools, a C/C++ compiler and a runtime library to deploy your application. https://developer.nvidia.com/cuda-toolkit |
CuPy |
CuPy is an open-source matrix library accelerated with NVIDIA CUDA. It also uses CUDA-related libraries including cuBLAS, cuDNN, cuRand, cuSolver, cuSPARSE, cuFFT and NCCL to make full use of the GPU architecture. CuPy's interface is highly compatible with NumPy; in most cases it can be used as a drop-in replacement. All you need to do is just replace numpy with cupy in your Python code. It supports various methods, indexing, data types, broadcasting and more. https://cupy.chainer.org/ |
Cython |
Cython is an optimising static compiler for both the Python programming language and the extended Cython programming language (based on Pyrex). It makes writing C extensions for Python as easy as Python itself. https://cython.org/ |
campo Eléctrico |
Electric field. Los iones crean un campo Eléctrico alrededor de la membrana neuronal. Debido a que la velocidad del movimiento de los iones es mucho menor que la velocidad de la luz, en Neurociencia podemos usar la aproximación de las ecuaciones de Maxwell para el caso de Electrostática. Ver también "ion concentration" y "permittivity". https://en.wikipedia.org/wiki/Electric_field |
canal de Calcio | Neurociencia. Canal (iónico) de Calcio. Regulado por voltaje. Proteína de membrana neuronal que forma un poro permeable a los iones Ca2+ que se abre y cierra en función del voltaje en los extremos del canal (interior y exterior de la neurona). |
canal de Potasio |
Neurociencia. Canal (iónico) de Potasio. Regulado por voltaje. Proteína de membrana neuronal que forma un poro permeable a los iones K+ que se abre y cierra en función del voltaje en los extremos del canal (interior y exterior de la neurona). https://en.wikipedia.org/wiki/Potassium_channel |
canal de Sodio |
Neurociencia. Canal (iónico) de Sodio. Regulado por voltaje. Proteína de membrana neuronal que forma un poro permeable a los iones Na+ que se abre y cierra en función del voltaje en los extremos del canal (interior y exterior de la neurona). https://en.wikipedia.org/wiki/Sodium_channel |
canal iónico |
Neurociencia. Ion channel. Los canales iónicos están compuestos de proteínas. Típicamente un canal a través de la membrana neuronal requiere que de 4 a 6 moléculas proteicas similares se ensamblen formando un poro entre ellas. Hay diferentes tipos de canales iónicos con propiedades diferentes dependiendo de qué moléculas proteicas se ensamblen. Ver también "membrana neuronal" y "bicapa fosfolipídica". https://en.wikipedia.org/wiki/Ion_channel https://www.google.com/search?q=ion+channel&sxsrf=ALeKk00zXM-rI7qT-TGwvsYDXx7Km31oQw:1596918806997&source=lnms&tbm=isch&sa=X&ved=2ahUKEwjDkOeRuozrAhWZDWMBHRfwDkkQ_AUoAXoECBUQAw |
canal iónico regulado por neurotransmisor | Neurociencia. |
canal iónico regulado por voltaje | Neurociencia. |
chain rule | Regla de la cadena. |
chemoreceptor |
Neuroscience. Quimiorreceptor o quimioceptor. Chemoreceptor or chemosensor. Transduces a chemical substance to generate action potentials. https://en.wikipedia.org/wiki/Chemoreceptor |
citoesqueleto | Neurociencia. Proporciona a la neurona su forma característica. Está formado por microtúbulos, neurofilamentos y microfilamentos. |
citoplasma | Neurociencia. Material celular contenido dentro de la membrana celular, incluidas las organelas, pero excluido el núcleo. |
classification algorithms | |
cluster | Conjunto de ordenadores conectados por una red de alta velocidad. |
clustering algorithms | Example, "DBSCAN". |
computer vision | |
concentración molar |
Neurociencia. Molar concentration. (Número de moles)/(Volumen). Unidades [mol/(m^3)] o [mol/L]. https://en.wikipedia.org/wiki/Molar_concentration 1 mM = 1E-3 [mol/L] = 1 [mol/(m^3)] |
condicionamiento clásico | Neurociencia. Ver también "condicionamiento operante". |
condicionamiento operante | Neurociencia. Ver también "condicionamiento clásico". |
conductancia | Electromagnetismo. Conductance. |
conductividad | Electromagnetismo. Conductivity. Caracteriza cada tipo de sustancia dentro del sistema nervioso. Ver también permeabilidad y permitividad. |
conductividad electrolítica | |
conductivity | Electromagnetism. Characterizes each type of substance within the nervous system. See also permeability and permittivity. |
consciousness |
Conciencia. https://www.youtube.com/watch?v=tT1vxEpE1aI "Michio Kaku: Could We Transport Our Consciousness Into Robots? | Big Think" |
convolution, backward | |
convolution, forward | |
cuBLAS |
The NVIDIA cuBLAS library is a fast GPU-accelerated implementation of the standard basic linear algebra subroutines (BLAS). Using cuBLAS APIs, you can speed up your applications by deploying compute-intensive operations to a single GPU or scale up and distribute work across multi-GPU configurations efficiently. Researchers and scientists use cuBLAS for developing gpu-accelerated algorithms in areas including high performance computing, image analysis and machine learning. https://developer.nvidia.com/cublas https://docs.nvidia.com/cuda/cublas/ |
cuDNN |
NVIDIA "CUDA Deep Neural Network library". Librería de red neuronal profunda NVIDIA CUDA. The NVIDIA CUDA® Deep Neural Network library (cuDNN) is a GPU-accelerated library of primitives for deep neural networks. cuDNN provides highly tuned implementations for standard routines such as forward and backward convolution, pooling, normalization, and activation layers. Deep learning researchers and framework developers worldwide rely on cuDNN for high-performance GPU acceleration. It allows them to focus on training neural networks and developing software applications rather than spending time on low-level GPU performance tuning. cuDNN accelerates widely used deep learning frameworks, including Caffe,Caffe2, Chainer, Keras,MATLAB, MxNet, TensorFlow, and PyTorch. https://developer.nvidia.com/cudnn |
cuerpo celular | Ver "soma". |
cuFFT |
The CUDA Fast Fourier Transform library. The NVIDIA CUDA Fast Fourier Transform library (cuFFT) provides GPU-accelerated FFT implementations that perform up to 10x faster than CPU-only alternatives. Using simple APIs, you can accelerate existing CPU-based FFT implementations in your applications with minimal code changes. As your application grows, you can use cuFFT to scale your image and signal processing applications efficiently across multiple GPUs. It consists of two separate libraries: cuFFT and cuFFTW. The cuFFT library is designed to provide high performance on NVIDIA GPUs. The cuFFTW library is provided as a porting tool to enable users of FFTW to start using NVIDIA GPUs with a minimum amount of effort. https://docs.nvidia.com/cuda/cufft https://developer.nvidia.com/cufft |
cuRand | |
cuSolver | |
cuSPARSE | |
Data Center Accelerator, NVIDIA | Acelerador de centro de datos de NVIDIA. Hay varios, por ejemplo: DGX-1, DGX-2. |
DBSCAN |
"Density-Based Spatial Clustering of Applications with Noise" (DBSCAN) is a data clustering algorithm. https://en.wikipedia.org/wiki/DBSCAN |
Deeplearning4j | Eclipse Deeplearning4j is a deep learning programming library written for Java and the Java virtual machine (JVM) and a computing framework with wide support for deep learning algorithms. |
DeepMind |
https://www.deepmind.com/ |
Deep Cognition Studio (DLS) |
Es un kit de herramientas de software y plataforma que simplifica el diseño, entrenamiento, testeo y el desarrollo de modelos de IA de deep learning. https://deepcognition.ai/ |
Dendrita |
Neurociencia. Es una entrada de la neurona. Ver "Axón" y "w[k][i][j]". https://es.wikipedia.org/wiki/Dendrita |
Dendrite |
Neuroscience. It is an input of a neuron. A neuron can have more than 1000 dendrites. Each dendrite can be characterized with a weight w[k][i][j]. https://en.wikipedia.org/wiki/Dendrite |
Density-Based Spatial Clustering of Applications with Noise | See "DBSCAN". |
DFT |
"Discrete Fourier transform". https://en.wikipedia.org/wiki/Discrete_Fourier_transform |
DGX Station, NVIDIA |
Una workstation para equipos de ciencia de datos. NVIDIA DGX Station era la workstation más rápida del mundo para desarrollo de inteligencia artificial avanzada. Este sistema optimizado e integrado completamente permite a tu equipo comenzar más rápido y experimentar con menos esfuerzo con el poder de un centro de datos en tu oficina. 72X más rápida que un servidor de doble CPU. Ver TPU v3. https://www.nvidia.com/en-us/data-center/dgx-station |
DGX-1, NVIDIA |
Para investigación en inteligencia artificial. El camino más rápido hacia deep learning. Construir una plataforma para deep learning va mucho más allá de seleccionar un servidor y GPUs. Un compromiso para implementar inteligencia artificial en tu negocio involucra cuidadosamente seleccionar e integrar software complejo con hardware. NVIDIA DGX-1 acelera tu iniciativa con una solución que funciona nada más sacarlo de la caja, por lo que puedes ganar percepciones en horas en lugar de semanas o meses. Red Hat Enterprise Linux en sistemas NVIDIA DGX-1. 140X más rápida que un servidor de una CPU. https://www.nvidia.com/en-us/data-center/dgx-1 |
DGX-2, NVIDIA |
Era el sistema de inteligencia artificial más poderoso del mundo para los desafíos de inteligencia artificial más complejos. Experimenta nuevos niveles de escala y velocidad de inteligencia artificial con NVIDIA DGX-2, el primer sistema de 2 petaFLOPS que combina 16 GPUs interconectadas completamente para 10X el rendimiento de deep learning. Es empoderada mediante software NVIDIA DGX y una arquitectura escalable construida sobre NVIDIA NVSwitch, por lo que puedes asumir los desafíos de inteligencia artificial más complejos del mundo. DGX-2, infraestructura esencial de inteligencia artificial Enterprise. 10X más rápida que DGX-1. Ver TPU v3. https://www.nvidia.com/en-us/data-center/dgx-2 |
DIGITS, NVIDIA |
Deep Learning GPU Training System (DIGITS). Sistema de entrenamiento de GPU de deep learning. Pone el poder de deep learning en las manos de ingenieros y científicos de datos. DIGITS puede ser usado para entrenar rápidamente la red neuronal (DNNs) altamente precisa para clasificación de imágenes, segmentación y tareas de detección de objetos. https://developer.nvidia.com/digits |
DNA |
Neuroscience. ADN. The necessary information from the DNA can be obtained doing a single analysis of a sample of the dead animal. https://en.wikipedia.org/wiki/DNA |
DNN | "Deep Neural Network". A Deep Neural Network (DNN) is an Artificial Neural Network (ANN) with multiple hidden layers of neurons between the input and output layers. |
DNNL | See MKL-DNN. |
Dopamina |
Neurociencia. Es un neurotransmisor. Cada vez que un neurotransmisor como la dopamina llega a una sinapsis, los circuitos que desencadenan un pensamiento, una motivación o una acción son vía prioritaria en el cerebro. En las adicciones, la dopamina actúa como un neurotransmisor tan potente que las personas, objetos, situaciones y lugares en que se consumió la droga quedan firmemente fijados en la memoria. "[...] No obstante, existen muchas evidencias que sugieren que los animales se motivan para la realización de conductas que estimulan la liberación de dopamina en el núcleo accumbens y en estructuras relacionadas con él. [...]". Breve transcripción del libro "Neurociencia. La exploración del cerebro", 3ª edición, de Mark F. Bear, Barry Connors y Michael Paradiso (p. 526). https://es.wikipedia.org/wiki/Dopamina |
Dopamine |
Neuroscience. It is a neurotransmitter. https://en.wikipedia.org/wiki/Dopamine https://datasetsearch.research.google.com/search?query=dopamine |
Dopamine |
Google repository. Dopamine is a research framework for fast prototyping of reinforcement learning algorithms. https://github.com/google/dopamine |
Drosophila melanogaster |
First animal resurrected by humans in a supercomputer? https://elpais.com/sociedad/2011/12/08/actualidad/1323359742_446739.html |
data mining | Minería de datos. It is the process of discovering patterns in large data sets involving methods of machine learning, statistics and database systems. |
decision tree | Árbol de decisión. |
deep learning | |
design patterns | |
diferenciación automática | Relacionada con el cálculo del gradiente. Puede ser implementada usando sobrecarga de operadores de C++. |
difusión | Neurociencia. Movimiento de las moléculas desde regiones de concentración elevada hacia regiones de concentración baja, lo que produce una distribución espacial más uniforme. |
Ecuaciones de Maxwell |
Electromagnetismo. Aunque los campos electromagnéticos creados por los iones son de largo alcance, se puede considerar que mucho más allá de la membrana celular cercana, los campos electromagnéticos creados por otros iones no afectan a los potenciales de acción, solo crean ruido. Ver "Electroestática", "Electrohydrodynamics" y "ley de Coulomb". https://es.wikipedia.org/wiki/Ecuaciones_de_Maxwell |
Elastic wave |
Elasticity. Onda elástica. Obviously the action potentials are not elastic mechanical waves, but... See also "neuronal membrane", "phospholipid bilayer" and "action potential". Young modulus https://en.wikipedia.org/wiki/Young%27s_modulus Poisson ratio https://en.wikipedia.org/wiki/Poisson%27s_ratio Shear modulus https://en.wikipedia.org/wiki/Shear_modulus Wavelength https://en.wikipedia.org/wiki/Wavelength Wavenumber https://en.wikipedia.org/wiki/Wavenumber Longitudinal wave https://en.wikipedia.org/wiki/Longitudinal_wave Transverse wave https://en.wikipedia.org/wiki/Transverse_wave S-wave https://en.wikipedia.org/wiki/S-wave P-wave https://en.wikipedia.org/wiki/P-wave . Elastic wave velocities on a thin plate (permanent and distributable urls) (NEW 2020-10-16) These apps WERE PUBLISHED AGAIN the same day changing only the input data (Young modulus and Shear modulus) Java Swing Applet app https://xformulas.net/xf_generated_apps/xf_java_swing_applet_apps/20201016_101060_000036_elastic_wave_thin_plate_applet/ Java Swing Desktop app https://xformulas.net/xf_generated_apps/xf_java_swing_desktop_apps/20201016_101060_000036_elastic_wave_thin_plate_swing/ C++ FLTK Desktop app https://xformulas.net/xf_generated_apps/xf_cpp_fltk_desktop_apps/20201016_101060_000036_elastic_wave_thin_plate_fltk/ C++ FLTK MULTIPRECISION Desktop app https://xformulas.net/xf_generated_apps/xf_cpp_fltk_multiprecision_desktop_apps/20201016_101060_000036_elastic_wave_thin_plate_multi/ C++ QT Desktop app (only source code) https://xformulas.net/xf_generated_apps/xf_cpp_qt_desktop_apps/20201016_101060_000036_elastic_wave_thin_plate_qt/ . Elastic wave velocities in a thin circular rod (permanent and distributable urls) (NEW 2020-10-16) Java Swing Applet app https://xformulas.net/xf_generated_apps/xf_java_swing_applet_apps/20201016_101061_000036_elastic_wave_circular_rod_applet/ Java Swing Desktop app https://xformulas.net/xf_generated_apps/xf_java_swing_desktop_apps/20201016_101061_000036_elastic_wave_circular_rod_swing/ C++ FLTK Desktop app https://xformulas.net/xf_generated_apps/xf_cpp_fltk_desktop_apps/20201016_101061_000036_elastic_wave_circular_rod_fltk/ C++ FLTK MULTIPRECISION Desktop app https://xformulas.net/xf_generated_apps/xf_cpp_fltk_multiprecision_desktop_apps/20201016_101061_000036_elastic_wave_circular_rod_multi/ C++ QT Desktop app (only source code) https://xformulas.net/xf_generated_apps/xf_cpp_qt_desktop_apps/20201016_101061_000036_elastic_wave_circular_rod_qt/ |
Electrical synapse |
Neuroscience. https://en.wikipedia.org/wiki/Electrical_synapse |
Electric field |
Electromagnetismo. Campo eléctrico. The ions create an Electric field around the neuronal membrane. Due to the velocity of the ions movement is much less than the speed of light, in Neuroscience we can use the approximation of the Maxwell's equations for the case of Electrostatics. See also "ion concentration" and "permittivity". https://en.wikipedia.org/wiki/Electric_field |
Electroestática |
Electromagnetismo. Electrostatics. Ver también "permitividad", "Electrohydrodynamics" y "Ecuaciones de Maxwell". https://es.wikipedia.org/wiki/Electrost%C3%A1tica |
Electrohidrodinámica | Electromagnetismo. Electrohydrodynamics. |
Electrohydrodynamics |
Electromagnetism. Electrohidrodinámica. Electrohydrodynamics (EHD), also known as electro-fluid-dynamics (EFD) or electrokinetics, is the study of the dynamics of electrically charged fluids. It is the study of the motions of ionized particles or molecules and their interactions with electric fields and the surrounding fluid. https://en.wikipedia.org/wiki/Electrohydrodynamics Electrohydrodynamics site:edu https://www.google.com/search?sxsrf=ALeKk03NWzS73BN6Srx1F59z7QPMK5H-Qg%3A1597595207652&source=hp&ei=R145X5XhJYHyaoC6oPAB&q=Electrohydrodynamics+site%3Aedu&oq=Electrohydrodynamics+site%3Aedu&gs_lcp=CgZwc3ktYWIQA1C6DFi6DGC5GmgAcAB4AIABRIgBRJIBATGYAQCgAQKgAQGqAQdnd3Mtd2l6&sclient=psy-ab&ved=0ahUKEwjVoOH2kaDrAhUBuRoKHQAdCB4Q4dUDCAY&uact=5 Electrohydrodynamics https://www.google.com/search?biw=1920&bih=910&tbm=bks&sxsrf=ALeKk03f3w0SSSH9m3gSnsbgi-1zy0eIkA%3A1597595890197&ei=8mA5X5XXC8KWa-XcrugH&q=Electrohydrodynamics&oq=Electrohydrodynamics&gs_l=psy-ab.3...0.0.0.32363.0.0.0.0.0.0.0.0..0.0....0...1c..64.psy-ab..0.0.0....0.-5kfBnJwqB8 |
Electron cryotomography |
Cryo-electron tomography. VERY HIGH SPATIAL RESOLUTION (~ 1-4 nm). https://en.wikipedia.org/wiki/Electron_cryotomography ![]() |
Electrostatics |
Electromagnetism. Electroestática. See also "permittivity", "Electrohydrodynamics" and "Maxwell equations". https://en.wikipedia.org/wiki/Electrostatics |
Error cuadrático |
Squared error. We can use other name but the best formula is the following (vector module squared to minimize the number of operations). Ver también "neurona".![]() * d[i]: Salida deseada i (salida de la neurona i de la capa de salida (k=N) de la red neuronal), con i en el intervalo cerrado [1, M]. * y[k][i]: Salida de la neurona i de la capa k de la red neuronal, con k en el intervalo cerrado [1, N] * y[N][i]: Salida de la neurona i de la capa de salida (k=N) de la red neuronal. Esta salida es la que aparece en la fórmula. * M: Número de neuronas de la capa de salida. NOTA: En la fórmula la N es un superíndice, no es un exponente matemático. La N solo indica que la salida es de la capa N. https://es.wikipedia.org/wiki/Error_cuadr%C3%A1tico_medio https://www.tensorflow.org/api_docs/python/tf/keras/losses/MeanSquaredError https://www.tensorflow.org/api_docs/python/tf/keras/Sequential#evaluate |
electrical resistance |
Electromagnetism. Resistencia eléctrica. See also "membrane resistance". https://en.wikipedia.org/wiki/Electrical_resistance_and_conductance |
electric potential |
Electromagnetismo. Potencial eléctrico. https://en.wikipedia.org/wiki/Electric_potential |
electroencefalógrafo | |
electron charge |
Carga del electrón. qe = -1.602176634E-19 [C] https://en.wikipedia.org/wiki/Electron |
endocitosis | Proceso por el cual un trozo de la membrana neuronal se convierte en una vesícula. Ver también "exocitosis". |
engrama | Neurociencia. Representación física o localización de un recuerdo. También recibe el nombre de traza de memoria. |
enlace peptídico | Neurociencia. Enlace covalente entre el grupo amino de un aminoácido y el grupo carboxilo de otro aminoácido. |
ensamblaje celular | Neurociencia. Grupo de neuronas activas simultáneamente que representan a un objeto guardado en la memoria. |
entrenar red neuronal |
https://www.tensorflow.org/api_docs/python/tf/keras/Sequential#fit |
entropía de información | Information entropy. |
entropy, information |
https://en.wikipedia.org/wiki/Entropy_(information_theory) |
enzima |
Neurociencia. Enzyme. https://en.wikipedia.org/wiki/Enzyme |
enzyme |
Neuroscience. Enzima. https://en.wikipedia.org/wiki/Enzyme |
exocitosis | Neurociencia. Proceso por el cual el material de una vesícula se libera al exterior de la neurona mediante la fusión de la vesícula con la membrana neuronal. Ver también "endocitosis". |
Fast Fourier Transform |
FFT. https://en.wikipedia.org/wiki/Fast_Fourier_transform |
Feedforward Neural Network (FNN) | Red neuronal prealimentada (alimentada hacia adelante). A Feedforward Neural Network is an Artificial Neural Network wherein connections between the nodes do not form a cycle. Es una red neuronal en la que las conexiones entre los nodos no forman un ciclo. Ver también RNN. |
FFT | "Fast Fourier Transform". Transformada rápida de Fourier. |
FLOPS (flop/s) | Floating point operations per second. Operaciones de coma flotante por segundo. |
FNN | "Feedforward Neural Network". Red neuronal prealimentada. |
Fuerza de Lorentz |
Electromagnetismo. https://es.wikipedia.org/wiki/Fuerza_de_Lorentz |
fastText |
Library for efficient text classification and representation learning. FastText is an open-source, free, lightweight library that allows users to learn text representations and text classifiers. It works on standard, generic hardware. Models can later be reduced in size to even fit on mobile devices. https://en.wikipedia.org/wiki/FastText https://fasttext.cc/ https://github.com/facebookresearch/fastText |
feed-forward (red) | Prealimentada (alimentada hacia adelante). |
fosfolípido |
Neurociencia. Phospholipid. Ver "membrana neuronal". https://en.wikipedia.org/wiki/Phospholipid |
fotorreceptor | Neurociencia. Fotorreceptor o fotoceptor. Célula de la retina que provoca potenciales de acción en función de la radiación electromagnética que recibe en la banda de espectro visible (4E14 - 7.7E14 Hz). Ver también "termorreceptor". |
frecuencia característica | Neurociencia. Referido al sistema auditivo. Frecuencia de onda de presión (N/(m^2)) a la que una neurona del sistema auditivo da la respuesta máxima. |
función de activación | Ver "Activation function". |
Gensim |
It is a free Python library. Gensim is an open-source library for unsupervised topic modeling and natural language processing, using modern statistical machine learning. It is implemented in Python and Cython. https://en.wikipedia.org/wiki/Gensim https://radimrehurek.com/gensim/ |
GNMT | Datacenter-class benchmark of MLPerf. For language translation. |
Goldman equation |
Neuroscience. Related to "Nernst equation". See "Electric field". https://en.wikipedia.org/wiki/Goldman_equation |
GoogLeNet | Es un modelo. |
Google AI |
Google AI is a division of Google dedicated solely to artificial intelligence. https://ai.google/ |
Google Brain (team) |
https://ai.google/research/teams/brain |
Google I/O |
Google I/O (or simply I/O) is an annual developer conference held by Google. https://events.google.com/io |
Gradient boosting |
It is a machine learning technique for regression and classification problems. https://en.wikipedia.org/wiki/Gradient_boosting |
Gradient Descent algorithm |
Algoritmo de descenso de gradiente. A learning algorithm, training algorithm or optimization algorithm. See also "optimizer". FUNDAMENTO DEL ALGORITMO ![]() * w[k][i][j](t): Peso entre la neurona i de la capa (k-1) y la neurona j de la capa k en el instante de tiempo t. * w[k][i][j](t+1): Peso entre la neurona i de la capa (k-1) y la neurona j de la capa k en el instante de tiempo t+1. * η (eta): Tasa de aprendizaje. Learning rate. * E: Error cuadrático. Squared error. "Variar los pesos en sentido opuesto al gradiente de la superficie de error". El peso en la iteración (o tiempo) t+1 es igual al peso en el tiempo actual (t) modificado en sentido inverso a la derivada del error multiplicada por un factor constante. https://en.wikipedia.org/wiki/Gradient_descent https://www.tensorflow.org/api_docs/python/tf/train/GradientDescentOptimizer Set the training algorithm (the optimizer) and the learning rate. https://www.tensorflow.org/api_docs/python/tf/keras/Sequential#compile Train the neural network. https://www.tensorflow.org/api_docs/python/tf/keras/Sequential#fit Example of simple neural network in C++ based on the Gradient Descent algorithm (NEW 2019-12-09) http://xformulas.net:57790/!/#xrepo/view/head/cpp/Neural_Network.cpp |
gast |
TensorFlow. Es un paquete de Python. https://pypi.org/project/gast/ |
gen | Neurociencia. Secuencia de ADN que codifica un solo polipéptido o una sola proteína. |
glial, célula | Neurociencia. Célula de soporte del sistema nervioso. |
gradient |
https://en.wikipedia.org/wiki/Gradient |
gradiente |
https://es.wikipedia.org/wiki/Gradiente |
gradiente de concentración | Neurociencia. Gradiente de concentración de iones (Cl-, Na+, K+, Ca2+). |
gránulo secretor | Neurociencia. Ver "vesícula de núcleo denso". |
grpcio |
TensorFlow. Package for gRPC Python. https://pypi.org/project/grpcio/ |
gym |
OpenAI Gym is a toolkit for developing and comparing reinforcement learning algorithms. https://pypi.org/project/gym/0.7.4/ |
Haar training | |
Hadoop, Apache | Java. The Apache Hadoop software library is a framework that allows for the distributed processing of large data sets across clusters of computers using simple programming models. |
HDF |
"Hierarchical Data Format". It is a set of file formats (HDF4, HDF5) designed to store and organize large amounts of data. https://en.wikipedia.org/wiki/Hierarchical_Data_Format https://www.hdfgroup.org/ |
HDF5 | Related to "h5py". File format designed to store and organize large amounts of data. See "HDF". |
HDR | High dynamic range. |
Hebb's rule | Neuroscience. |
Hebb, regla de | Neurociencia. Potenciación a largo plazo (PLP). Regla de Hebb (1949): Si una neurona presináptica A se activa repetidas veces a la vez que la neurona postsináptica B, hay un cambio metabólico que refuerza la eficacia de A excitando B. |
HPC | High-performance computing (HPC) is the use of super computers and parallel processing techniques for solving complex computational problems. |
Human Brain Project |
https://en.wikipedia.org/wiki/Human_Brain_Project https://www.youtube.com/watch?v=a1XcY-xAvos "The Blue and Human Brain Projects, Prof. Henry Markram" https://www.youtube.com/channel/UCd5sWIVavCp4hzp2mFWI2qg |
h5py |
TensorFlow. Es un paquete de Python. The h5py package provides both a high- and low-level interface to the HDF5 library from Python. The low-level interface is intended to be a complete wrapping of the HDF5 API, while the high-level component supports access to HDF5 files, datasets and groups using established Python and NumPy concepts. https://pypi.org/project/h5py/ http://www.h5py.org/ |
hendidura sináptica |
Neurociencia. Tiene que ser posible distinguir la posición de las hendiduras sinápticas. La separación entre neuronas en las hendiduras sinápticas mide unos 20 nm, pero las terminaciones axónicas tienen forma de botón y son mucho más grandes. Las vesículas sinápticas tienen un diámetro de unos 50 nm. El cuerpo celular de una neurona típica mide unos 20 um de diámetro. El aprendizaje de la red neuronal provoca creación, destrucción y modificación de uniones sinápticas. No parece que haya muchos tipos de sustancias. Con 512 o 1024 niveles de gris seguramente sería suficiente para distinguir las sustancias que afectan a la transmisión de los impulsos eléctricos (potenciales de acción). |
huso muscular | Neurociencia. Receptor de estiramiento. |
ICD |
International Classification of Diseases. ICD codes based on a file found on 2020-08-10 at https://www.cms.gov/Medicare/Coding/ICD10/2020-ICD-10-CM |
Inception-v3 | Es un modelo. |
Integrated Performance Primitives (IPP), Intel |
It is a multi-threaded software library of functions for multimedia and data processing applications, produced by Intel. It may be used to improve the performance of color conversion, Haar training and DFT functions of the OpenCV library. https://en.wikipedia.org/wiki/Integrated_Performance_Primitives https://software.intel.com/en-us/ipp |
IPP | See "Integrated Performance Primitives". |
I/O | Ver Google I/O. |
inferencia |
Cálculo de las salidas de la red neuronal. Calculate the output of the neural network. https://www.tensorflow.org/api_docs/python/tf/keras/Sequential#predict |
inhibidor | Neurociencia. Fármaco o toxina que bloquea la acción normal de una proteína o de un proceso bioquímico. |
ion |
https://en.wikipedia.org/wiki/Ion |
ion Ca2+ |
Neurociencia. Átomo de Calcio con carga positiva (catión) por no tener 2 electrones. Charge(Ca2+) = -2*qe = -2*-1.602176634E-19 = 3.2043533E-19 [C] |
ion Cl- |
Neurociencia. Átomo de Cloro con carga negativa (anión) por tener 1 electrón adicional. Charge(Cl-) = qe = -1.602176634E-19 [C] |
ion concentration |
Neuroscience. The ions concentrations (Cl-, Na+, K+, Ca2+) are different inside and outside the neuron. Maybe this can be used to determine the shape of the neuronal membrane using some type of tomography. Con membrana neuronal en reposo: ionConcentration(Ca2+, exterior) = 2 [mM] ionConcentration(Ca2+, interior) = 0.0002 [mM] ionConcentration(Cl-, exterior) = 150 [mM] ionConcentration(Cl-, interior) = 13 [mM] ionConcentration(K+, exterior) = 5 [mM] ionConcentration(K+, interior) = 100 [mM] ionConcentration(Na+, exterior) = 150 [mM] ionConcentration(Na+, interior) = 15 [mM] Fuente: "Neurociencia. La exploración del cerebro", 3ª edición, de Mark F. Bear, Barry Connors y Michael Paradiso (p. 66). |
ion K+ |
Neurociencia. Átomo de Potasio con carga positiva (catión) por no tener 1 electrón. Charge(K+) = -qe = 1.602176634E-19 [C] |
ion Na+ |
Neurociencia. Átomo de Sodio con carga positiva (catión) por no tener 1 electrón. Charge(Na+) = -qe = 1.602176634E-19 [C] |
Keras |
Keras is a high-level API to build and train deep learning models. https://keras.io/ https://www.tensorflow.org/api_docs/python/tf/keras |
Keras-Applications |
TensorFlow. Es un paquete de Python. https://pypi.org/project/Keras-Applications/ https://keras.io/applications/ |
Keras-Preprocessing |
TensorFlow. Es un paquete de Python. https://pypi.org/project/Keras-Preprocessing/ https://keras.io/ |
K-means clustering |
K-medias. It is a method of vector quantization, originally from signal processing, that is popular for cluster analysis in data mining. https://en.wikipedia.org/wiki/K-means_clustering |
K-medias | K-means clustering. Método utilizado en minería de datos. |
Learning | Neuroscience. |
Learning | Computing. |
Levenberg–Marquardt algorithm |
https://en.wikipedia.org/wiki/Levenberg%E2%80%93Marquardt_algorithm |
Ley de Coulomb |
Electromagnetismo. https://es.wikipedia.org/wiki/Ley_de_Coulomb |
Ley de Ohm |
Electromagnetismo. Ohm's law. https://es.wikipedia.org/wiki/Ley_de_Ohm |
Long-term potentiation |
https://en.wikipedia.org/wiki/Long-term_potentiation |
Lorentz force |
Electromagnetism. https://en.wikipedia.org/wiki/Lorentz_force |
LSTM network | "Long Short-Term Memory" network. It is an artificial Recurrent Neural Network (RNN) architecture used in the field of deep learning. |
LSTM, red | "Long Short-Term Memory". Es un tipo especial de red neuronal recurrente (RNN) capaz de aprender dependencias long-term (largo plazo). |
LTP | "Long-term potentiation". |
learning algorithm |
Learning algorithm, training algorithm or optimization algorithm. https://www.google.com/search?source=hp&ei=9LFCXcWeMeyOlwT6_Z2YAw&q=%22neural+network%22+%22learning+algorithms%22+site%3Aedu&oq=%22neural+network%22+%22learning+algorithms%22+site%3Aedu&gs_l=psy-ab.3...1471.1471..4314...0.0..0.110.174.1j1......0....2j1..gws-wiz.....0.5qTRLms_d90&ved=0ahUKEwjF6Jb_ruHjAhVsx4UKHfp-BzMQ4dUDCAU&uact=5 https://www.google.com/search?source=hp&ei=WLJCXfnDFI-TlwTl7KU4&q=%22neural+network%22+%22learning+algorithms%22+site%3Aac.uk&oq=%22neural+network%22+%22learning+algorithms%22+site%3Aac.uk&gs_l=psy-ab.3...1525.1525..2746...0.0..0.116.175.1j1......0....2j1..gws-wiz.....0.49O3UCL1o2s&ved=0ahUKEwj5z9Gur-HjAhWPyYUKHWV2CQcQ4dUDCAU&uact=5 |
libcu++ | |
MATLAB |
It is a multi-paradigm numerical computing environment and proprietary programming language developed by MathWorks. https://en.wikipedia.org/wiki/MATLAB |
MATLAB Deep Learning Toolbox |
https://www.mathworks.com/products/deep-learning.html https://www.mathworks.com/help/deeplearning/ug/choose-a-multilayer-neural-network-training-function.html |
MATLAB Deep Network Designer |
https://www.mathworks.com/help/deeplearning/ref/deepnetworkdesigner-app.html |
Markdown |
TensorFlow. Es un paquete de Python. https://pypi.org/project/Markdown/ https://python-markdown.github.io/ |
Matplotlib |
Matplotlib is a plotting library for the Python programming language and its numerical mathematics extension NumPy. https://en.wikipedia.org/wiki/Matplotlib https://matplotlib.org/ |
Maxwell Equations |
Electromagnetism. Ecuaciones de Maxwell. Although the electromagnetic fields created by the ions are long range, it can be considered that far beyond the nearby cell membrane, the electromagnetic fields created by other ions do not affect the action potentials, they only create noise. See also "Electrostatics", "Electrohydrodynamics" and "Coulomb law". https://en.wikipedia.org/wiki/Maxwell%27s_equations |
Máquina de vectores de soporte | Support-vector machine. |
MKL, Intel |
Intel "Math Kernel Library". Librería de núcleo matemático de Intel. Intel Math Kernel Library (Intel MKL) is a library of optimized math routines for science, engineering, and financial applications. Core math functions include BLAS, LAPACK, ScaLAPACK, sparse solvers, fast Fourier transforms, and vector math. Es una librería de rutinas matemáticas optimizadas para ciencia, ingeniería y aplicaciones financieras. Las funciones matemáticas núcleo incluyen BLAS, LAPACK, ScaLAPACK, solucionadores dispersos, transformada de Fourier rápida y matemáticas de vector. Están optimizadas para procesadores Intel. Esta librería está disponible para Windows, Linux y macOS. Uses industry-standard C and Fortran APIs for compatibility with popular BLAS, LAPACK, and FFTW functions—no code changes required. Improved performance of 1D/3D FFT (fast Fourier transform). https://en.wikipedia.org/wiki/Math_Kernel_Library https://software.intel.com/mkl |
MKL-DNN, Intel |
Intel "Math Kernel Library for Deep Neural Networks". Librería de núcleo de matemáticas de Intel para redes neuronales profundas. Starting with version 1.1 the library is renamed to DNNL. Deep Neural Network Library (DNNL) is an open-source performance library for deep learning applications. The library includes basic building blocks for neural networks optimized for Intel Architecture Processors and Intel Processor Graphics. DNNL is intended for deep learning applications and framework developers interested in improving application performance on Intel CPUs and GPUs. Deep learning practitioners should use one of the applications enabled with DNNL. https://github.com/intel/mkl-dnn |
ML | "Machine Learning". |
MLP |
"Multilayer Perceptron". https://en.wikipedia.org/wiki/Multilayer_perceptron |
MLPerf |
MLPerf is an industry standard for measuring ML performance. MLPerf Inference v0.5 defines three datacenter-class benchmarks: * ResNet-50 v1.5 for image classification, * SSD-ResNet-34 for object detection, and * GNMT for language translation. MLPerf Inference v0.5 defines two different datacenter inference scenarios: “offline” (e.g. processing a large batch of data overnight) and “online” (e.g. responding to user queries in real-time). https://mlperf.org/ |
Model | Neural network. |
Modelo | Red neuronal. |
MXNet |
Es un framework de deep learning que te permite mezclar los sabores de programación simbólica y programación imperativa para maximizar la eficiencia y la productividad. La libería es portable y ligera, y se escala a múltiples GPUs y múltiples máquinas. https://mxnet.apache.org/ |
machine learning | |
mapa sensorial | Neurociencia. |
mapear sistema nervioso |
Consiste en extraer la información de la red neuronal de una persona muerta o de un animal muerto usando imágenes de tomografía de muy alta resolución. Todavía no se puede hacer (que yo sepa). Tal vez no se pueda hacer en muchas décadas. El tiempo de escaneo será inaceptable. Hay que cortar y destruir el sistema nervioso para poder extraer la información. No basta con tener resolución espacial y resolución de contraste suficientes. El efecto de la congelación o del método que se use para fijar las neuronas se podrá deshacer mediante software. La fijación de las neuronas (congelación u otro método) se tendrá que hacer antes de que las neuronas se degraden más allá de lo que permita el método para extraer la información de la red neuronal. Ver "Cryopreservation".![]() https://www.youtube.com/watch?v=ldXEuUVkDuw "A Simulated Mouse Brain in a Virtual Mouse Body" |
map nervous system | Extract the neural network from a dead person or from a dead animal using tomography images of high resolution. |
matriz extracelular | Neurociencia. Red de proteínas fibrosas depositadas en el espacio intercelular. |
mecanorreceptor |
Neurociencia. Mechanoreceptor. Recepción de estímulos mecánicos. Por ejemplo, célula que informa al sistema nervioso de la presión (N/(m^2)) en una zona de la piel. https://es.wikipedia.org/wiki/Mecanorreceptor |
mechanoreceptor |
Neuroscience. Mecanorreceptor. https://en.wikipedia.org/wiki/Mechanoreceptor |
membrana neuronal |
Neurociencia. Neuronal membrane. Referido a neurona animal. La forma de la membrana celular de una dendrita y otra información determinan el valor del peso w[k][i][j] de esa dendrita. La membrana tiene un espesor de unos 5 nm y está repleta de proteínas. Algunas de las proteínas asociadas a la membrana bombean sustancias del interior al exterior ("bomba de iones"). Otras forman poros que regulan qué sustancias pueden acceder al interior de la neurona ("canal iónico"). Las moléculas y átomos neutros (sin carga eléctrica) no afectan (directamente) al movimiento de los iones a través de la membrana neuronal. Las moléculas con carga eléctrica (radicales) y los átomos con carga eléctrica (iones) alejados de la membrana solo generan ruido eléctrico de pequeña amplitud que no afecta al movimiento de los potenciales de acción, o apenas afecta al movimiento de los potenciales de acción introduciendo una componente aleatoria que se puede simular fácilmente mediante software. La membrana neuronal contiene una capa de fosfolípidos ("bicapa fosfolipídica") de 2 moléculas de grosor. Ver también "bicapa fosfolipídica", "fosfolípido", "canal iónico" y "bomba de iones". https://www.google.com/search?q=neuronal+membrane&sxsrf=ALeKk00dIF6Avji_zDIiQqKpILv8POg1eA:1596919055688&source=lnms&tbm=isch&sa=X&ved=2ahUKEwjojbKIu4zrAhUnA2MBHTU1Dp0Q_AUoAXoECA4QAw&biw=1920&bih=910 |
membrane resistance | Neuroscience. Resistencia de membrana. See also "electrical resistance". |
memoria | |
memoria a corto plazo | Neurociencia |
memoria a largo plazo | Neurociencia |
memory to store a Nervous System |
Maximum amount of memory necessary to store a Nervous System (of a dead animal) so that simulation cannot be distinguished from the original (before death). * Minimum distance between Nitrogen atoms in proteins (about 3 Angstroms?) or minimum distance to consider dmin = 3 [Angstrom] = 3E-10 [m] * Spatial resolution (k surely in [1, 10]) sr = dmin/k [m] * Voxel volume Vx = sr^3 [m^3] * Number of elements (substances) to distinguish (N probably in [8, 32]) N = 8 N = 16 N = 32 * Contrast resolution (memory to store a voxel) Mx = ceil(ln(N)/ln(2)) [bit] (UPDATED 2020-10-08) * Volume of the considered Nervous System (the human brain has about 1500 cm^3) V = 3000 [cm^3] = 0.003 [m^3] * Number of voxels (Nx) Nx = V/Vx * Maximum amount of memory required to store the neural network of the Nervous System M = Nx * Mx [bit] = (V/Vx) * ceil(ln(N)/ln(2)) [bit] = V/(sr^3) * ceil(ln(N)/ln(2)) [bit] = V/((dmin/k)^3) * ceil(ln(N)/ln(2)) [bit] With dmin = 3E-10 [m], k = 10 y N=32: M = V/((dmin/k)^3) * ceil(ln(N)/ln(2)) [bit] = 0.003/(((3E-10)/10)^3) * ceil(ln(32)/ln(2)) [bit] ~= 5.55E29 [bit] With dmin = 3E-10 [m], k = 2 y N = 8: M = V/((dmin/k)^3) * ceil(ln(N)/ln(2)) [bit] = 0.003/(((3E-10)/2)^3) * ceil(ln(8)/ln(2)) [bit] ~= 2.67E27 [bit] . Memory to store a Nervous System (permanent and distributable urls) (NEW 2020-10-08) Java Swing Applet app https://xformulas.net/xf_generated_apps/xf_java_swing_applet_apps/20201008_111057_000013_nervous_system_memory_applet/ Java Swing Desktop app https://xformulas.net/xf_generated_apps/xf_java_swing_desktop_apps/20201008_111057_000013_nervous_system_memory_swing/ C++ FLTK Desktop app https://xformulas.net/xf_generated_apps/xf_cpp_fltk_desktop_apps/20201008_111057_000013_nervous_system_memory_fltk/ C++ FLTK MULTIPRECISION Desktop app https://xformulas.net/xf_generated_apps/xf_cpp_fltk_multiprecision_desktop_apps/20201008_111057_000013_nervous_system_memory_multi/ C++ QT Desktop app (only source code) https://xformulas.net/xf_generated_apps/xf_cpp_qt_desktop_apps/20201008_111057_000013_nervous_system_memory_qt/ . NOTE: ceil() to get the smallest integer greater than or equal to a number. |
menoh |
Fast DNN inference library with multiple programming language support. https://github.com/pfnet-research/menoh |
mente | Red neuronal. |
microelectrodo | |
microfilamento | Neurociencia. Componente del citoesqueleto. Polímero de la proteína actina que forma una hebra trenzada de 5 nm de diámetro. Ver también "citoesqueleto". |
microtúbulo | Neurociencia. Componente del citoesqueleto. Polímero de la proteína tubulina que forma un tubo recto y vacío de 20 nm de diámetro. Ver también "citoesqueleto". |
mielina | Neurociencia. Cubierta que envuelve los axones. |
mind | Neural network. |
minería de datos | Data mining. Intenta descubrir patrones en grandes volúmenes de de datos. |
miofibrilla | Neurociencia. Estructura cilíndrica del interior de una fibra muscular que se contrae en respuesta a un potencial de acción. |
mlpack |
mlpack is a machine learning software library for C++. https://en.wikipedia.org/wiki/Mlpack https://mlpack.org/ |
mM |
Neuroscience. Concentration unit. 1 mM = 1E-3 [mol/L] = 1 [mol/(m^3)] |
mole |
Neuroscience. Mol. 1 mole = 6.02214076E23 (Avogadro constant) |
motoneurona |
Neurociencia. Motor neuron. Neurona motora. Neurona que establece sinapsis con una célula muscular y causa contracción muscular. https://es.wikipedia.org/wiki/Motoneurona |
motor neuron |
Neuroscience. https://en.wikipedia.org/wiki/Motor_neuron |
motor neuron |
Neurona motora. Motoneurona. https://en.wikipedia.org/wiki/Motor_neuron "motor neuron" site:edu https://www.google.com/search?sxsrf=ALeKk02Oc2XoCe6E13J5I5uw_D9Ca_tL0Q%3A1596698953337&source=hp&ei=SbErX_33Ec6Wa8mflrgP&q=%22motor+neuron%22+site%3Aedu&oq=%22motor+neuron%22+site%3Aedu&gs_lcp=CgZwc3ktYWIQA1DsB1jsB2D2J2gAcAB4AIABP4gBP5IBATGYAQCgAQKgAQGqAQdnd3Mtd2l6&sclient=psy-ab&ved=0ahUKEwi9wLKPh4brAhVOyxoKHcmPBfcQ4dUDCAY&uact=5 |
NCCL | Related to "CuPy". |
Nernst equation |
Neuroscience. Related to "Goldman equation". See "Electric field". https://en.wikipedia.org/wiki/Nernst_equation |
Nervous system |
Neuroscience. https://en.wikipedia.org/wiki/Nervous_system |
Neuron |
Neuroscience. A typical neuron have several dendrites (inputs), a cell nucleus, and an axon (output). https://en.wikipedia.org/wiki/Neuron |
Neuroscience |
https://en.wikipedia.org/wiki/Neuroscience |
Nitrogen |
Neuroscience. Nitrógeno. Does each amino acid have a Nitrogen atom? https://en.wikipedia.org/wiki/Nitrogen Nitrogen spectroscopy site:edu https://www.google.com/search?sxsrf=ALeKk00u5vMlNkiiFN_UTPIObfXVWumU6w%3A1596995045874&source=hp&ei=5TUwX6qIM8LCgwew_KOgDQ&q=Nitrogen+spectroscopy+site%3Aedu&oq=Nitrogen+spectroscopy+site%3Aedu&gs_lcp=CgZwc3ktYWIQA1CSEliSEmDGFmgAcAB4AIABNogBNpIBATGYAQCgAQKgAQGqAQdnd3Mtd2l6&sclient=psy-ab&ved=0ahUKEwjqjqmT1o7rAhVC4eAKHTD-CNQQ4dUDCAY&uact=5 Nitrogen tomography site:edu https://www.google.com/search?sxsrf=ALeKk01VysbC__A40zPlC86j5yYmOPxe6w%3A1596995143992&source=hp&ei=RzYwX-mQOsOdjLsPhtOgsAQ&q=Nitrogen+tomography+site%3Aedu&oq=Nitrogen+tomography+site%3Aedu&gs_lcp=CgZwc3ktYWIQA1ClEVilEWCsF2gAcAB4AIABOogBOpIBATGYAQCgAQKgAQGqAQdnd3Mtd2l6&sclient=psy-ab&ved=0ahUKEwip0I3C1o7rAhXDDmMBHYYpCEYQ4dUDCAY&uact=5 |
NLP | "Natural Language Processing". |
NLTK | "Natural Language Toolkit". |
NNP-I | Intel® Nervana™ Neural Network Processor for Inference. Related to "nGraph". |
NNP-L | Intel® Nervana™ Neural Network Processor for Learning. Related to "nGraph". |
Nucleus accumbens |
Núcleo accumbens. https://en.wikipedia.org/wiki/Nucleus_accumbens "nucleus accumbens" https://www.google.com/search?sxsrf=ALeKk00072NUWEOSKOa81Z8w4uTAF3ShFw%3A1596698090440&source=hp&ei=6q0rX_eDGMmdlwT9k4cw&q=%22nucleus+accumbens%22&oq=%22nucleus+accumbens%22&gs_lcp=CgZwc3ktYWIQAzIFCAAQywEyBQgAEMsBMgIIADICCAAyBwgAEBQQhwIyAggAMgIIADICCAAyAggAMgcIABAUEIcCUP8FWP8FYNEOaABwAHgAgAFbiAFbkgEBMZgBAKABAqABAaoBB2d3cy13aXo&sclient=psy-ab&ved=0ahUKEwj3oPfzg4brAhXJzoUKHf3JAQYQ4dUDCAY&uact=5 |
NumPy |
NumPy is a scientific computing package for Python. https://www.numpy.org/ import numpy as np xx = np.array([[5.0, 1.0, 0.0, 3.0]]) print(xx.shape) |
Núcleo accumbens |
Nucleus accumbens. https://en.wikipedia.org/wiki/Nucleus_accumbens |
NVCaffe |
NVIDIA Caffe. Es un fork mantenido por NVIDIA de Caffe ajustado para GPUs NVIDIA, particularmente en configuraciones multi GPU. Incluye soporte de multiprecisión así como otras características mejoradas de NVIDIA y ofrece rendimiento especialmente ajustado para NVIDIA DGX-2, DGX-1 y DGX Station. http://docs.nvidia.com/deeplearning/dgx/caffe-release-notes/index.html http://caffe.berkeleyvision.org/ |
NVIDIA T4 GPU | See also TPU v3. |
NVSwitch, NVIDIA | Se usa en DGX-2. |
nervio | Neurociencia. |
neural network |
Example of simple neural network in Python with TensorFlow. https://xformulas.net/source_code/python/simple_neural_network.py.php Example of simple neural network in C++ based on the Gradient Descent algorithm (NEW 2019-12-09) http://xformulas.net:57790/!/#xrepo/view/head/cpp/Neural_Network.cpp ![]() |
neurita | Neurociencia. Dos tipos: dendrita y axón. |
neurofilamento | Neurociencia. Componente del citoesqueleto. Filamento de unos 10 nm de diámetro que se encuentra en las neuronas. |
neurona |
Neurociencia. Una neurona típica tiene varias dendritas (entradas), un cuerpo celular (soma) y un axón (salida). Recibe y envía información usando trenes de pulsos llamados potenciales de acción. La información está codificada en la frecuencia de los pulsos, no en su amplitud. Ver también "potencial de acción".![]() * xj: Entradas. Inputs. * wij: Pesos. Weights. * θi: Bias. Puede ser siempre o casi siempre igual a cero. * f(): Función de activación. Activation function. Ej.: función sigmoide. * yi: Salida. Output. https://es.wikipedia.org/wiki/Neurona |
neurona motora |
Neurociencia. https://es.wikipedia.org/wiki/Motoneurona |
neurona olfatoria | Neurociencia. Neurona receptora olfatoria. |
neurona sensorial |
Neurociencia. https://es.wikipedia.org/wiki/Neurona_sensorial |
neurotransmisor |
Neurociencia. Sustancia que libera el axón en las sinapsis químicas. Sustancia que libera un elemento presináptico cuando es estimulado y que activa los receptores postsinápticos. https://es.wikipedia.org/wiki/Neurotransmisor Principales neurotransmisores: * Acetilcolina (ACh). Amina. https://en.wikipedia.org/wiki/Acetylcholine * Ácido gamma-aminobutírico (GABA). Aminoácido. https://en.wikipedia.org/wiki/Gamma-Aminobutyric_acid * Adrenalina. Amina. https://en.wikipedia.org/wiki/Adrenaline * Colecistocinina (CCK). Péptido. https://en.wikipedia.org/wiki/Cholecystokinin * Dinorfina. Péptido. https://en.wikipedia.org/wiki/Dynorphin * Dopamina (DA). Amina. https://en.wikipedia.org/wiki/Dopamine * Encefalinas (Enk). Péptido. https://en.wikipedia.org/wiki/Enkephalin * Glicina (Gly). Aminoácido. https://en.wikipedia.org/wiki/Glycine * Glutamato (Glu). Aminoácido. * Histamina. Amina. https://en.wikipedia.org/wiki/Histamine * Hormona liberadora de tirotropina. Péptido. https://en.wikipedia.org/wiki/Thyrotropin-releasing_hormone * N-acetilaspartilglutamato (NAAG). Péptido. * Neuropéptido Y. Péptido. https://en.wikipedia.org/wiki/Neuropeptide_Y * Noradrenalina (NA). Amina. https://en.wikipedia.org/wiki/Norepinephrine * Polipéptido intestinal vasoactivo (VIP). Péptido. https://en.wikipedia.org/wiki/Vasoactive_intestinal_peptide * Serotonina (5-HT). Amina. https://en.wikipedia.org/wiki/Serotonin * Somatostatina. Péptido. https://en.wikipedia.org/wiki/Somatostatin * Sustancia P. Péptido. https://en.wikipedia.org/wiki/Substance_P |
neurotransmitter |
Neuroscience. https://en.wikipedia.org/wiki/Neurotransmitter |
nGraph |
Open source C++ library, compiler and runtime for Deep Learning. nGraph Compiler aims to accelerate developing AI workloads using any deep learning framework and deploying to a variety of hardware targets. https://github.com/NervanaSystems/ngraph https://www.ngraph.ai/ |
nociceptor |
Neuroscience. Pain receptor. Receptor de dolor. https://en.wikipedia.org/wiki/Nociceptor https://en.wikipedia.org/wiki/Cultured_meat "Cultured meat" https://es.wikipedia.org/wiki/Carne_cultivada "Carne cultivada" "Cultured meat" https://www.google.com/search?sxsrf=ALeKk01WQoCnX0MbHkk4CGGlDIP8rFivfQ%3A1598709897099&source=hp&ei=iWBKX7SsA4yKlwSFhavABA&q=%22Cultured+meat%22&oq=%22Cultured+meat%22&gs_lcp=CgZwc3ktYWIQAzIFCAAQywEyAggAMgIIADICCAAyAgguMgIIADICCAAyAggAMgIIADICCABQmQtYmQtgih1oAHAAeACAAT6IAT6SAQExmAEAoAECoAEBqgEHZ3dzLXdpeg&sclient=psy-ab&ved=0ahUKEwj0lI28ysDrAhUMxYUKHYXCCkgQ4dUDCAY&uact=5 |
núcleo | Neurociencia. Organela más o menos esférica del cuerpo celular que contiene los cromosomas. Ver también "soma". |
Ohm's law |
Electromagnetism. Ley de Ohm. https://en.wikipedia.org/wiki/Ohm%27s_law |
ONNX |
"Open Neural Network Exchange". ONNX is an open format to represent deep learning models. With ONNX, AI developers can more easily move models between state-of-the-art tools and choose the combination that is best for them. ONNX is developed and supported by a community of partners. Enabling interoperability makes it possible to get great ideas into production faster. ONNX enables models to be trained in one framework and transferred to another for inference. ONNX models are currently supported in Caffe2, Microsoft Cognitive Toolkit, MXNet, and PyTorch, and there are connectors for many other common frameworks and libraries. Es un formato para modelos de deep learning que permite interoperabilidad entre diferentes frameworks de IA. ONNX es una representación de modelo compartida para interoperabilidad framework y optimización compartida. ONNX permite a los desarrolladores mover modelos entre frameworks tales como CNTK, Caffe2, MXNet y PyTorch. https://onnx.ai/ |
ONNX Runtime |
ONNX Runtime is a performance-focused complete scoring engine for Open Neural Network Exchange (ONNX) models, with an open extensible architecture to continually address the latest developments in AI and Deep Learning. ONNX Runtime stays up to date with the ONNX standard with complete implementation of all ONNX operators, and supports all ONNX releases (1.2+) with both future and backwards compatibility. Please refer to this page for ONNX opset compatibility details. https://github.com/microsoft/onnxruntime |
Onda |
Física. Ver también potencial de acción. https://es.wikipedia.org/wiki/Onda |
Onda elástica | Elasticidad. Elastic wave. |
OpenCL |
Similar to CUDA, but runs on anything. Usually slower on NVIDIA hardware. https://en.wikipedia.org/wiki/OpenCL |
OpenCV |
OpenCV (Open source computer vision) is a library of programming functions mainly aimed at real-time computer vision. https://en.wikipedia.org/wiki/OpenCV https://opencv.org/ |
OpenNI | "Open Natural Interaction". The OpenNI Framework contains a set of open source APIs that provide support for natural interaction with devices via methods such as voice command recognition, hand gestures, and body motion tracking. |
OpenVino toolkit |
Develop applications and solutions that emulate human vision with the Intel® Distribution of OpenVINO™ toolkit. Based on convolutional neural networks (CNN), the toolkit extends workloads across Intel® hardware (including accelerators) and maximizes performance. https://software.intel.com/en-us/openvino-toolkit |
OpenVX |
OpenVX is an open, royalty-free standard for cross platform acceleration of computer vision applications. https://en.wikipedia.org/wiki/OpenVX |
Optical coherence tomography |
High spatial resolution (< 1 um). See also "Cryo-electron tomography". https://en.wikipedia.org/wiki/Optical_coherence_tomography |
Oxitocina |
Neurociencia. Es un neurotransmisor. https://es.wikipedia.org/wiki/Oxitocina |
Oxytocin |
Neuroscience. It is a neurotransmitter. https://en.wikipedia.org/wiki/Oxytocin https://datasetsearch.research.google.com/search?query=oxytocin |
optimization algorithm |
Learning algorithm, training algorithm or optimization algorithm. https://www.google.com/search?source=hp&ei=U7NCXbyVHoacaca7kxA&q=%22neural+network%22+%22optimization+algorithms%22+site%3Aedu&oq=%22neural+network%22+%22optimization+algorithms%22+site%3Aedu&gs_l=psy-ab.3...1462.1462..2038...0.0..0.106.170.1j1......0....2j1..gws-wiz.....0.xKJVh5eBOhM&ved=0ahUKEwj8irOmsOHjAhUGThoKHcbdBAIQ4dUDCAU&uact=5 https://www.google.com/search?source=hp&ei=c7NCXbzcK8yua-7hg8AB&q=%22neural+network%22+%22optimization+algorithms%22+site%3Aac.uk&oq=%22neural+network%22+%22optimization+algorithms%22+site%3Aac.uk&gs_l=psy-ab.3...1195.1195..2858...0.0..0.100.175.1j1......0....2j1..gws-wiz.....0.sg2H4zd0US4&ved=0ahUKEwj84eG1sOHjAhVM1xoKHe7wABgQ4dUDCAU&uact=5 |
optimizer |
TensorFlow. https://www.tensorflow.org/api_docs/python/tf/train/GradientDescentOptimizer Set the training algorithm (the optimizer) and the learning rate. https://www.tensorflow.org/api_docs/python/tf/keras/Sequential#compile |
organela |
Neurociencia. Organelle. Son ejemplos de organelas el núcleo, las mitocondrias, el retículo endoplásmico y el aparato de Golgi. Ver también "Soma". https://en.wikipedia.org/wiki/Organelle |
overfitting | Sobreajuste. |
órgano de Corti | Neurociencia. Órgano receptor auditivo. |
órgano otolítico | Neurociencia. Referido al oído interno. Transduce la inclinación de la cabeza y la aceleración en potenciales de acción. |
órgano tendinoso de Golgi | Neurociencia. En interior de los tendones. Transduce tensión muscular en potenciales de acción. |
PaddlePaddle |
Proporciona un interfaz intuitivo y flexible para cargar datos y especificar estructuras de modelos. Soporta CNN, RNN, variantes múltiples y configura modelos profundos complicados fácilmente. Proporciona operaciones optimizadas extremadamente, reciclaje de memoria y comunicación de red. PaddlePaddle hace fácil escalar recursos de computación heterogeneos y almacenamiento para acelerar el proceso de entrenamiento. http://www.paddlepaddle.org/ |
PEPS | Neurociencia. Potencial excitador postsináptico. Ver también "sumación de PEPS". |
Placer | Neurociencia. |
PlaidML | |
Pleasure |
Neuroscience. http://thebrain.mcgill.ca/flash/d/d_03/d_03_cr/d_03_cr_que/d_03_cr_que.html |
Potenciación a largo plazo |
https://es.wikipedia.org/wiki/Potenciaci%C3%B3n_a_largo_plazo |
Potencial de acción |
Neurociencia. Variación del potencial eléctrico en la membrana neuronal causada al abrirse y cerrarse rápidamente los canales iónicos regulados por voltaje. También se conoce como impulso nervioso o descarga nerviosa. Se desplaza por neuritas como una ola y transmite información. Los potenciales de acción se propagan extremadamente despacio, a unos 10 m/s. Las señales en circuitos electrónicos se propagan a velocidades cercanas a la velocidad de la luz (300000 km/s). https://es.wikipedia.org/wiki/Potencial_de_acci%C3%B3n "Las velocidades de conducción del potencial de acción varían, si bien 10 m/s es una velocidad típica. Debemos recordar que desde el inicio hasta el final la duración del potencial de acción es de unos 2 ms. A partir de este dato, podemos calcular la longitud de la membrana que está implicada en el potencial de acción en cualquier momento: 10 m/s x 2 x 10^-3 s = 2 x 10^-2 m. Así pues, un potencial de acción que se desplaza a 10 m/s abarca 2 cm del axón." Transcripción de fragmento del libro "Neurociencia. La exploración del cerebro", 3ª edición, de Mark F. Bear, Barry Connors y Michael Paradiso. Capítulo 4, página 94. https://www.youtube.com/watch?v=rVlhMGQgDkY "Atlas, The Next Generation" |
PowerAI Enterprise, IBM |
Plataforma de inteligencia artificial de IBM. https://www.ibm.com/us-en/marketplace/deep-learning-platform |
Protein |
Neuroscience. Proteína. See also "amino acid". https://en.wikipedia.org/wiki/Protein |
Proteína |
Neurociencia. Protein. Polímero de aminoácidos que se mantienen unidos por enlaces peptídicos. Ver "enlace peptídico" y "amino acid". https://en.wikipedia.org/wiki/Protein |
Protocol Buffers | |
PyPI |
The Python Package Index (PyPI) is a repository of software for the Python programming language. PyPI helps you find and install software developed and shared by the Python community. Learn about installing packages. Package authors use PyPI to distribute their software. https://pypi.org/ |
Pyro, Uber | Software para programación probabilística. |
PyTorch |
An open source machine learning framework that accelerates the path from research prototyping to production deployment. Es una librería de machine learning para Python basada en Torch usada para aplicaciones tales como procesado de lenguaje natural. Está desarrollada principalmente por el grupo de investigación de inteligencia artificial de Facebook. Proporciona 2 características de alto nivel: computación "Tensor" (como NumPy) con aceleración GPU fuerte, y redes neuronales profundas construidas sobre un sistema autodiff basado en cinta. PyTorch soporta varios tipos de tensores. PyTorch es un framework computacional de tensores acelerado por GPU con front end Python. Funcionalmente puede ser fácilmente extendido con librerías Python comunes tales como NumPy, SciPy y Cython. La diferenciación automática es realizada con un sistema basado en cinta en ambos un funcional y nivel de capa de red neuronal. Esta funcionalidad trae un alto nivel de flexibilidad y velocidad como un framework deep learning y proporciona funcionalidad tipo NumPy acelerada. PyTorch es una plataforma de aprendizaje profundo de fuente abierta que provee un camino sin problemas desde prototipado de investigación hasta desarrollo de producción. https://pytorch.org/ |
PyTorch Tensor | Similares a los arrays NumPy, con el añadido de que los tensores pueden también ser usados sobre GPUs que soporten CUDA. |
Python |
Python is an interpreted, high-level, general-purpose programming language. https://en.wikipedia.org/wiki/Python_(programming_language) |
pandas | |
papila gustativa | Neurociencia. |
pasta |
TensorFlow. Es un paquete de Python. https://github.com/google/pasta https://pypi.org/project/google-pasta/ |
permeabilidad | Electromagnetismo. Permeability. Caracteriza cada tipo de sustancia dentro del sistema nervioso. Ver también conductividad y permitividad. |
permeability |
Electromagnetism. Characterizes each type of substance within the nervous system. See also conductivity and permittivity. https://en.wikipedia.org/wiki/Permeability_(electromagnetism) |
permitividad | Electromagnetismo. Permittivity. Caracteriza cada tipo de sustancia dentro del sistema nervioso. Ver también conductividad y permeabilidad. |
permittivity |
Electromagnetism. Characterizes each type of substance within the nervous system. See also conductivity and permeability. https://en.wikipedia.org/wiki/Permittivity |
peta | 10^15 |
phospholipid bilayer |
Neuroscience. Bicapa fosfolipídica. phospholipid bilayer https://www.google.es/search?hl=en&tbm=isch&sxsrf=ALeKk02fy4wrw7upuW4REPgcK3YKrKH_jQ%3A1602841784283&source=hp&biw=1920&bih=869&ei=uGyJX5TnDtWCjLsPhuCioAM&q=phospholipid+bilayer&oq=phospholipid+bilayer&gs_lcp=CgNpbWcQAzIECCMQJzICCAAyAggAMgIIADICCAAyAggAMgIIADICCAAyAggAMgIIAFCQHliQHmDtjAFoAHAAeACAAUGIAUGSAQExmAEAoAECoAEBqgELZ3dzLXdpei1pbWc&sclient=img&ved=0ahUKEwiUo7n56rjsAhVVAWMBHQawCDQQ4dUDCAY&uact=5 "phospholipid bilayer" site:edu filetype:pdf https://www.google.com/search?sxsrf=ALeKk02Z0VGX4iYKdRoCVyyyeMSOLIYukA%3A1602841982755&source=hp&ei=fm2JX-THKuSHjLsP2qy7qAM&q=%22phospholipid+bilayer%22+site%3Aedu+filetype%3Apdf&oq=%22phospholipid+bilayer%22+site%3Aedu+filetype%3Apdf&gs_lcp=CgZwc3ktYWIQA1DYCFjYCGC63gNoAXAAeACAAUGIAUGSAQExmAEAoAECoAEBqgEHZ3dzLXdpeg&sclient=psy-ab&ved=0ahUKEwjk_onY67jsAhXkA2MBHVrWDjUQ4dUDCAg&uact=5 |
polipéptido | Neurociencia. Cadena de aminoácidos que se mantienen unidos por enlaces peptídicos. |
polímero | Neurociencia. Ver también "proteína". |
pooling | |
potencial de equilibrio iónico | Neurociencia. |
potencial de membrana | Neurociencia. Diferencia de potencial eléctrico (voltaje) a través de la membrana de la neurona. |
potencial de membrana en reposo | Neurociencia. Potencial de membrana en reposo o potencial de reposo. Cuando no hay potenciales de acción. |
potencial eléctrico |
Electromagnetismo. Electric potential. Ver también "potencial de membrana". https://en.wikipedia.org/wiki/Electric_potential |
propagation constant | Electromagnetism. |
propiocepción | Neurociencia. Sensación que se tiene de la posición y los movimientos del cuerpo. |
propioceptor | Neurociencia. Receptor sensorial de los músculos, las articulaciones y la piel que contribuye a la propiocepción. |
protobuf | TensorFlow. Es un paquete de Python. |
qe | See "electron charge". |
quimiorreceptor |
Neurociencia. Quimiorreceptor o quimioceptor. Receptor sensorial de sustancias químicas. https://es.wikipedia.org/wiki/Quimiorreceptor |
R | |
Random forest | Bosques Aleatorios. |
RCNN | Ver RCNN. |
Receptor | Neuroscience. |
Receptor | Neurociencia. Proteína especializada (canal iónico) que detecta señales químicas, como neurotransmisores, e inicia una respuesta celular. |
Receptor | Neurociencia. Célula especializada que transduce (convierte) estímulos ambientales (presión, temperatura, ...) en potenciales de acción. |
Red neuronal prealimentada | Feedforward Neural Network (FNN). |
Red neuronal recurrente | Recurrent Neural Network (RNN). |
Regla de Hebb | Neurociencia. Hebb's rule. Potenciación a largo plazo (PLP). Regla de Hebb (1949): Si una neurona presináptica A se activa repetidas veces a la vez que la neurona postsináptica B, hay un cambio metabólico que refuerza la eficacia de A excitando B. |
ResNet-101 | Es un modelo. |
ResNet-50 | Es un modelo. Datacenter-class benchmark of MLPerf. For image classification. |
Reward circuit | Neuroscience. |
Reward system |
Neuroscience. https://en.wikipedia.org/wiki/Reward_system |
RNN |
"Recurrent Neural Network". Red neuronal recurrente. Es una clase de red neuronal artificial donde las conexiones entre nodos forman un gráfico dirigido a lo largo de una secuencia. Esto permite exhibir un comportamiento dinámico temporal para una secuencia de tiempo. A diferencia de las FNNs, las RNNs pueden usar su estado interno (memoria) para procesar secuencias de entradas. https://en.wikipedia.org/wiki/Recurrent_neural_network |
R-CNN | La "R" se refiere a región. Para detección de objetos. Ver CNN. |
receptor de estiramiento | Neurociencia. Ver "huso muscular". |
receptor gustativo | Célula que transduce estímulos gustativos en potenciales de acción. |
red neuronal | |
regression algorithms | |
resistencia de membrana | Neurociencia. Resistencia eléctrica de la membrana neuronal. |
resistencia eléctrica |
Electromagnetismo. Electrical resistance. Ver también "resistencia de membrana". https://es.wikipedia.org/wiki/Resistencia_el%C3%A9ctrica |
resolución de contraste (de tomografía) | |
resolución espacial (de tomografía) | Este parámetro determina brutalmente cual será el curso de la humanidad. La mente (red neuronal) de una persona se puede almacenar indefinidamente en una imagen tridimensional de tomografía de resoluciones espacial y de color o contraste suficientes. El volumen de las neuronas, la forma de las neuronas, la posición de las neuronas, la forma de las sustancias diferentes dentro de las neuronas, ... determinan los datos numéricos (ver "w[k][i][j]") con los que se puede recrear cada neurona dentro de un sistema hardware software. |
retículo endoplásmico liso | Neurociencia. |
retículo endoplásmico rugoso | Neurociencia. Organela celular rodeada por una membrana con ribosomas adheridos a su superficie externa. Lugar de síntesis de proteínas. |
ribosoma | Neurociencia. Organela que fabrica proteínas a partir de aminoácidos. |
Scikit-learn |
It is a free software machine learning library for the Python programming language. Simple and efficient tools for data mining and data analysis. Built on NumPy, SciPy, and matplotlib. https://scikit-learn.org/ |
SciPy |
It is a free and open-source Python library used for scientific computing and technical computing. SciPy contains modules for optimization, linear algebra, integration, interpolation, special functions, FFT, signal and image processing, ODE solvers and other tasks common in science and engineering. SciPy builds on the NumPy array object and is part of the NumPy stack which includes tools like Matplotlib, pandas and SymPy, and an expanding set of scientific computing libraries. https://en.wikipedia.org/wiki/SciPy https://scipy.org/scipylib/ |
SGD | "Stochastic Gradient Descent". Descenso de gradiente estocástico. |
Sigmoide, función |
Sigmoid function. Es un tipo de función de activación muy interesante. Ver también "activation function". https://es.wikipedia.org/wiki/Funci%C3%B3n_sigmoide |
Sigmoid function |
Función sigmoide. It is a type of activation function very interesting. See also "activation function".![]() https://en.wikipedia.org/wiki/Sigmoid_function https://www.tensorflow.org/api_docs/python/tf/keras/activations/sigmoid See also to increase calculation speed https://en.cppreference.com/w/cpp/numeric/math/exp |
Sinapsis |
Neurociencia. Región donde una neurona transmite información a otra célula (que en la mayoría de los casos es otra neurona). La sinapsis tiene dos lados: presináptico y postsináptico. El lado presináptico se refiere al axón de la neurona que transmite información, y el lado postsináptico se refiere a una dendrita (o al soma) de la neurona que recibe información. El espacio entre las membranas presináptica y postsináptica se llama "hendidura sináptica". https://en.wikipedia.org/wiki/Synapse |
Sinapsis eléctrica |
Neurociencia. Sinapsis en la que los potenciales de acción pasan directamente de la neurona presináptica a la neurona postsináptica a través de una unión gap. Ver también "unión gap". https://es.wikipedia.org/wiki/Sinapsis_el%C3%A9ctrica |
Sinapsis química |
Neurociencia. Sinapsis en la que los potenciales de acción de la neurona presináptica estimulan la liberación de neurotransmisores en la hendidura sináptica, que activan receptores de la membrana de la neurona postsináptica. https://es.wikipedia.org/wiki/Sinapsis_qu%C3%ADmica |
Sistema de recompensa | Neurociencia. Ver "Reward system". |
Sistema Nervioso animal |
Neurociencia. Si tratamos de buscar semejanzas de una red neuronal artificial con el sistema nervioso animal, cada peso en el sistema nervioso animal (w[k][i][j]) sería algo parecido a las características de la sinapsis y las neuritas presináptica y postsináptica. La repetición para evitar el dolor y maximizar la "satisfacción" (placer) a lo largo del tiempo, es lo que provoca el aprendizaje en el sistema nervioso animal. En las redes neuronales el aprendizaje también se consigue mediante la repetición (los pesos w[k][i][j] cambian solamente un poco en cada iteración). El mayor o menor tránsito de potenciales de acción cambia las propiedades eléctricas de las sinapsis y las neuronas. Cuanto mejor son satisfechas las necesidades (menos dolor, más "satisfacción"), más dopamina se libera, que provoca que aumente el tamaño y la efectividad de los circuitos neuronales (pensamientos) que se encuentren activos, es decir, aumentan los pesos w[k][i][j] de las conexiones de esos circuitos. El objetivo del sistema nervioso parece que debería ser satisfacer lo mejor posible las necesidades a lo largo del tiempo. Esto está fuertemente relacionado con la Teoría de la Evolución de Charles Darwin, y parece claro que es una consecuencia necesaria de dicha teoría. Sigmund Freud también se refiere al placer y dice algo parecido (entre otras cosas). En general el objetivo del sistema nervioso es maximizar el placer (menos dolor, más "satisfacción") desde el presente hasta un tiempo futuro que depende mucho de lo aprendido (incluidas las creencias religiosas). Si pudiéramos medir en cada instante con un número como de bien están siendo satisfechas las necesidades, el objetivo del sistema nervioso debería ser maximizar la integral de ese número desde el instante de tiempo presente hasta el tiempo en el que vamos a morir, o incluso hasta el infinito, si es lo que dice tu religión y estás absolutamente convencido de que es cierto lo que dice tu religión. Ver también "Regla de Hebb", "Reward system", "dopamina" y "oxitocina". |
Sodium–Potassium pump |
Neuroscience. Bomba Sodio-Potasio. https://en.wikipedia.org/wiki/Na%2B/K%2B-ATPase Sodium–Potassium pump https://www.google.com/search?q=Sodium%E2%80%93Potassium+pump&sxsrf=ALeKk03RgTV6uHzui3dbT19PdxY14wOLFQ:1596996275764&source=lnms&tbm=isch&sa=X&ved=2ahUKEwjMw-Xd2o7rAhXrBWMBHS6fA8MQ_AUoAXoECBIQAw&biw=1920&bih=910 |
Soma |
Neurociencia. Soma o cuerpo celular. Parte central de la neurona. Tiene unos 20 um de diámetro. Contiene las mismas organelas que existen en todas las células animales. Las más importantes son: núcleo, retículo endoplásmico, aparato de Golgi y mitocondria. https://en.wikipedia.org/wiki/Soma_(biology) |
Squared error |
See "error cuadrático". https://www.tensorflow.org/api_docs/python/tf/keras/losses/MeanSquaredError https://www.tensorflow.org/api_docs/python/tf/keras/Sequential#evaluate |
SSD-ResNet-34 | Datacenter-class benchmark of MLPerf. For object detection. |
Support-vector machines |
Máquinas de vectores de soporte. These are supervised learning models with associated learning algorithms that analyze data used for classification and regression analysis. https://en.wikipedia.org/wiki/Support-vector_machine |
SVM | "Support-vector machine". |
Synapse |
Neuroscience. https://en.wikipedia.org/wiki/Synapse |
Synaptic vesicle |
Neuroscience. The synaptic vesicles have a diameter of about 50 nm. https://en.wikipedia.org/wiki/Synaptic_vesicle |
sed osmométrica | Neurociencia. Motivación para beber agua como consecuencia de un incremento de la tonicidad de la sangre. Ver también "tonicidad". |
sed volumétrica | Neurociencia. Motivación para beber agua debida a una disminución del volumen sanguíneo. |
segundo mensajero | Neurociencia. |
sensory neuron |
Neuroscience. https://en.wikipedia.org/wiki/Sensory_neuron |
six | TensorFlow. Es un paquete de Python. |
snippet | [Referred to OpenCV] |
sobreajuste | Overfitting. Es el efecto de sobreentrenar con un algoritmo de aprendizaje. |
sueño | Neurociencia. |
sumación de PEPS | Neurociencia. Varios potenciales excitadores postsinápticos se combinan. |
sumación espacial | Neurociencia. |
sumación temporal | Neurociencia. |
synaptic cleft | Neuroscience. Hendidura sináptica. About 20 nm. |
TBB | See "Threading Building Blocks". |
Tensor | Array multidimensional. |
TensorFlow |
TensorFlow is an end-to-end open source platform for machine learning. It has a comprehensive, flexible ecosystem of tools, libraries and community resources that lets researchers push the state-of-the-art in ML and developers easily build and deploy ML powered applications. Build and train ML models easily using intuitive high-level APIs like Keras with eager execution, which makes for immediate model iteration and easy debugging. Easily train and deploy models in the cloud, on-prem, in the browser, or on-device no matter what language you use. TensorFlow is an open source software library for high performance numerical computation. Its flexible architecture allows easy deployment of computation across a variety of platforms (CPUs, GPUs, TPUs), and from desktops to clusters of servers to mobile and edge devices. Originally developed by researchers and engineers from the Google Brain team within Google’s AI organization, it comes with strong support for machine learning and deep learning and the flexible numerical computation core is used across many other scientific domains. https://www.tensorflow.org/ https://pypi.org/project/tensorflow/ https://www.youtube.com/watch?v=1KhuLg_F8rc "What's New with TensorFlow? (Next Rewind '18)" |
TensorRT Inference Server |
Servidor de inferencia de TensorRT. Provee una solución de inferencia de centro de datos optimizada para GPUs NVIDIA. Maximiza la utilización de inferencia y rendimiento sobre GPUs vía un punto final de gRPC o HTTP, permitiendo a clientes remotos pedir inferencia para cualquier modelo que esté siendo manejado por el servidor, así como suministrando métricas en tiempo real sobre latencia y peticiones. El servidor de inferencia TensorRT provee una solución de inferenciación de nube optimizada para GPUs NVIDIA. https://docs.nvidia.com/deeplearning/sdk/ |
TensorRT, NVIDIA |
NVIDIA TensorRT™ is a platform for high-performance deep learning inference. It includes a deep learning inference optimizer and runtime that delivers low latency and high-throughput for deep learning inference applications. TensorRT-based applications perform up to 40x faster than CPU-only platforms during inference. With TensorRT, you can optimize neural network models trained in all major frameworks, calibrate for lower precision with high accuracy, and finally deploy to hyperscale data centers, embedded, or automotive product platforms. https://developer.nvidia.com/tensorrt http://docs.nvidia.com/deeplearning/sdk/ |
TF | See "TensorFlow". |
Theano |
Theano es una librería Python que te permite definir, optimizar, y evaluar expresiones matemáticas que involucran arrays multidimensionales eficientemente. Theano ha estado alimentando investigaciones científicas intensivas computacionalmente de gran escala desde 2007. Pero es también bastante accesible para ser usado en el aula. https://en.wikipedia.org/wiki/Theano_(software) https://github.com/Theano/ http://deeplearning.net/software/theano |
Thermoreceptor |
Neuroscience. https://en.wikipedia.org/wiki/Thermoreceptor |
Threading Building Blocks, Intel |
TBB. Intel® Threading Building Blocks (Intel® TBB) is a widely used C++ library for shared memory parallel programming and heterogeneous computing (intra-node distributed memory programming). The library provides a wide range of features for parallel programming that include: Generic parallel algorithms, Concurrent containers, A scalable memory allocator, Work-stealing task scheduler, Low-level synchronization primitives. It is used inside OpenCV for parallel code snippets. Using this will make sure that the OpenCV library will take advantage of all the cores you have in your system's CPU. https://software.intel.com/en-us/tbb https://github.com/intel/tbb |
Tomografía |
https://es.wikipedia.org/wiki/Tomograf%C3%ADa https://elpais.com/sociedad/2013/06/20/actualidad/1371742600_459472.html |
Tomography |
https://en.wikipedia.org/wiki/Tomography https://www.youtube.com/watch?v=ldXEuUVkDuw "A Simulated Mouse Brain in a Virtual Mouse Body" https://www.youtube.com/watch?v=aoUgQtaotg4 "Michio Kaku - Digital Immortality" https://www.youtube.com/watch?v=gv6Gxbp8Rvs "Michio Kaku - Immortality Is Ours" |
Torch |
Torch is a scientific computing framework with wide support for machine learning algorithms that puts GPUs first. It is easy to use and efficient, thanks to an easy and fast scripting language, LuaJIT, and an underlying C/CUDA implementation. https://en.wikipedia.org/wiki/Torch_(machine_learning) http://torch.ch/ |
TPU |
"Tensor Processing Unit". A tensor processing unit (TPU) is an AI accelerator application-specific integrated circuit (ASIC) developed by Google specifically for neural network machine learning. https://en.wikipedia.org/wiki/Tensor_processing_unit https://cloud.google.com/blog/products/gcp/an-in-depth-look-at-googles-first-tensor-processing-unit-tpu https://cloud.google.com/tpu/ |
TPU v3 |
Near-linear scalability all the way up to a record 1 million images processed per second on ResNet-50 v1.5 using 32 Cloud TPU v3 devices. Cloud TPUs are publicly available to Google Cloud customers in beta. These same TPUs are also being used throughout numerous large-scale Google products, including Google Search. 32 Cloud TPU v3 devices can collectively process more than one million images per second. To understand that scale and speed, if all 7.7 billion people on Earth uploaded a single photo, you could classify this entire global photo collection in under 2.5 hours and do so for less than $600. https://cloud.google.com/blog/products/ai-machine-learning/cloud-tpu-breaks-scalability-records-for-ai-inference |
tensorboard | TensorFlow. Es un paquete de Python. |
tensorflow-estimator |
TensorFlow. TensorFlow Estimator is a high-level API that encapsulates model training, evaluation, prediction, and exporting. https://pypi.org/project/tensorflow-estimator/ |
teoría BCM | Neurociencia. Relacionada con la regla de Hebb. Propone que las sinapsis son modificables bidireccionalmente. |
tera | 10^12 |
termcolor |
TensorFlow. Es un paquete de Python. https://pypi.org/project/termcolor/ |
terminación axónica | Neurociencia. Terminación axónica, botón terminal o terminación presináptica. Extremo de un axón que generalmente establece contacto sináptico con otra célula. |
terminación presináptica | Neurociencia. Ver "terminación axónica". |
termorreceptor | Neurociencia. Termorreceptor o termoceptor. Transduce radiación electromagnética en la banda infrarroja (3E11 - 4E14 Hz) en potenciales de acción. Ver también "fotorreceptor". |
tonicidad | Neurociencia. Ver también "sed osmométrica". |
training algorithm |
Learning algorithm, training algorithm or optimization algorithm. https://www.google.com/search?source=hp&ei=jLJCXYHkKY-WlwSpmYjoDQ&q=%22neural+network%22+%22training+algorithms%22+site%3Aedu&oq=%22neural+network%22+%22training+algorithms%22+site%3Aedu&gs_l=psy-ab.3...1373.1373..1962...0.0..0.99.167.2......0....2j1..gws-wiz.....0.9jpwS9FuxFQ&ved=0ahUKEwiB2szHr-HjAhUPy4UKHakMAt0Q4dUDCAU&uact=5 https://www.google.com/search?source=hp&ei=v7JCXd9wkJuXBOjfpYAM&q=%22neural+network%22+%22training+algorithms%22+site%3Aac.uk&oq=%22neural+network%22+%22training+algorithms%22+site%3Aac.uk&gs_l=psy-ab.3...1555.1555..3421...0.0..0.106.170.1j1......0....2j1..gws-wiz.....0.dObZ2OrNb4I&ved=0ahUKEwifzMzfr-HjAhWQzYUKHehvCcAQ4dUDCAU&uact=5 |
training function | See "training algorithm". |
train neural network |
See "learning". Train the neural network. https://www.tensorflow.org/api_docs/python/tf/keras/Sequential#fit |
transduccción | Neurociencia. Transformación de la energía de estímulos sensoriales en potenciales de acción. |
transportador | Neurociencia. Proteína de membrana que transporta neurotransmisores o sus precursores al interior de la neurona a través de la membrana neuronal. |
traza de memoria | Neurociencia. Ver "engrama". |
umbral | Neurociencia. Valor de la diferencia de potencial en la membrana neuronal a partir del cual se produce potencial de acción. |
unión gap | Neurociencia. Región que une la neurona presináptica con la neurona postsináptica en la sinapsis eléctrica. Ver "sinapsis eléctrica". |
Vesícula sináptica |
Neurociencia. Las vesículas sinápticas tienen un diámetro de unos 50 nm. Contienen neurotransmisores. https://es.wikipedia.org/wiki/Ves%C3%ADcula_sin%C3%A1ptica |
VGG-16 | Es un modelo. |
VGG-19 | Es un modelo. |
vesícula de núcleo denso | Neurociencia. Vesícula de núcleo denso o gránulo secretor. Vesícula esférica de unos 100 nm de diámetro delimitada por una membrana que contiene péptidos que tienen que ser secretados por exocitosis. Ver también "exocitosis". |
voltaje | Electromagnetismo. |
Watson |
https://en.wikipedia.org/wiki/Watson_(computer) https://elpais.com/diario/2011/02/18/radiotv/1297983603_850215.html https://www.youtube.com/user/IBMWatsonSolutions https://www.ibm.com/watson |
Wave |
Physics. See also "action potential". https://en.wikipedia.org/wiki/Wave |
Werkzeug |
TensorFlow. Werkzeug is a comprehensive WSGI web application library. It began as a simple collection of various utilities for WSGI applications and has become one of the most advanced WSGI utility libraries. https://pypi.org/project/Werkzeug/ https://palletsprojects.com/p/werkzeug/ |
Word2vec |
It is a group of related models that are used to produce word embeddings. https://en.wikipedia.org/wiki/Word2vec |
wave propagation |
https://en.wikipedia.org/wiki/Wave_propagation |
wrapt |
TensorFlow. The aim of the wrapt module is to provide a transparent object proxy for Python, which can be used as the basis for the construction of function wrappers and decorator functions. https://pypi.org/project/wrapt/ https://github.com/GrahamDumpleton/wrapt |
w[k][i][j] | Peso entre la neurona i de la capa (k-1) y la neurona j de la capa k. |