Vocabulario de Ciencias de la Salud para Argentina

Cadenas de Markov

Cadenas de Markov
Un proceso estocástico en el cual la probabilidad de distribución condicional para una situación en algun momento futuro, dada la situación presente, no es afectada por ningun conocimiento adicional de la historia pasada de sistema.

Términos alternativos

Términos genéricos

Fecha de creación
19-Sep-2013
Término aceptado
19-Sep-2013
Términos descendentes
0
ARK
ark:/99152/t3n2pjz77z9l3w
Términos específicos
0
Términos alternativos
1
Términos relacionados
0
Notas
2
Metadatos
Búsqueda
  • Buscar Cadenas de Markov  (Wikipedia (ES))
  • Buscar Cadenas de Markov  (Google búsqueda exacta)
  • Buscar Cadenas de Markov  (Google scholar)
  • Buscar Cadenas de Markov  (Google images)
  • Buscar Cadenas de Markov  (Google books)