Vocabulario de Ciencias de la Salud para Argentina

Cadenas de Markov

Cadenas de Markov
Un proceso estocástico en el cual la probabilidad de distribución condicional para una situación en algun momento futuro, dada la situación presente, no es afectada por ningun conocimiento adicional de la historia pasada de sistema.

Términos no preferidos

Términos genéricos

Fecha de creación
19-Sep-2013
Modificación
30-Nov--0001
Término aceptado
19-Sep-2013
Términos descendentes
0
Términos específicos
0
Términos alternativos
1
Términos relacionados
0
Notas
2
Metadatos
Búsqueda
  • Buscar Cadenas de Markov  (Wikipedia)
  • Buscar Cadenas de Markov  (Google búsqueda exacta)
  • Buscar Cadenas de Markov  (Google scholar)
  • Buscar Cadenas de Markov  (Google images)
  • Buscar Cadenas de Markov  (Google books)