Vocabulario de Ciencias de la Salud para Argentina
Toggle navigation
Inicio
Búsqueda avanzada
Sobre...
Mi cuenta
Cadenas de Markov
Inicio
TÉCNICAS Y EQUIPAMIENTOS ANALÍTICOS, DIAGNÓSTICOS Y TERAPÉUTICOS
Técnicas de Investigación
Métodos Epidemiológicos
Estadística como Asunto
Probabilidad
Cadenas de Markov
Término
Metadatos
Cadenas de Markov
Nota de alcance
Un proceso estocástico en el cual la probabilidad de distribución condicional para una situación en algun momento futuro, dada la situación presente, no es afectada por ningun conocimiento adicional de la historia pasada de sistema.
Nota de catalogación
sin calif
Términos alternativos
UP
↸
Proceso de Markov
Términos genéricos
TG
↑
Probabilidad
TG
↑
Procesos Estocásticos
Fecha de creación
19-Sep-2013
Término aceptado
19-Sep-2013
Términos descendentes
0
ARK
ark:/99152/t3n2pjz77z9l3w
Términos específicos
0
Términos alternativos
1
Términos relacionados
0
Notas
2
Metadatos
BS8723-5
DC
MADS
SKOS-Core
VDEX
XTM
Zthes
JSON
JSON-LD
Búsqueda