como faço para escolher entre diferentes modelos?
O processo de avaliação de um aprendizado de máquina ajuda a determinar quão confiável e eficaz o modelo é para sua aplicação. Isso envolve a avaliação de diversos fatores, como desempenho, métricas e precisão para previsões ou tomada de decisão.
Não importa qual modelo você escolha usar, você precisa escolher entre modelos: diferentes tipos de modelos, parâmetros de ajuste e recursos. Além disso, você precisa de um procedimento de avaliação de modelo para estimar quão bem um modelo será generalizado para dados invisíveis. Por último, você precisa de um procedimento de avaliação para emparelhar com o seu procedimento para quantificar o desempenho do seu modelo.
Antes de prosseguirmos, vamos revisar alguns dos diferentes procedimentos de avaliação de modelos e como eles funcionam.Procedimentos de avaliação de modelos e como eles funcionam.
Métricas de avaliação do modelo:
Antes de aprendermos qualquer nova métrica de avaliação' Vamos revisar a
precisão da classificação e falar sobre seus pontos fortes e fracos.
Precisão de classificaçãoVamos ler os dados e imprimir as 5 primeiras linhas dos dados. A coluna do rótulo indica 1 se o paciente tiver diabetes e 0 se o paciente não tiver diabetes, e pretendemos responder à pergunta:
Pergunta: Podemos prever o status de diabetes de um paciente com base em suas medidas de saúde?
Definimos nossas métricas de recursos X e vetor de resposta Y. Usamos train_test_split para dividir X e Y em conjuntos de treinamento e teste.A seguir, treinamos um modelo de regressão logística no conjunto de treinamento. Durante a etapa de ajuste, o objeto do modelo logreg está aprendendo o relacionamento entre X_train e Y_train. Finalmente, fazemos previsões de classe para os conjuntos de teste.
Agora que fizemos previsões para o conjunto de testes, podemos calcular a precisão da classificação, que é simplesmente a porcentagem de previsões corretas.
No entanto, sempre que você usar a precisão da classificação como métrica de avaliação, é importante compará-la com a
Precisão nula, que é a precisão que pode ser alcançada prevendo sempre a classe mais frequente.
Precisão nula responde à pergunta; se meu modelo previsse a classe predominante 100% das vezes, com que frequência ele estaria correto? No cenário acima, 32% do y_test são 1 (unidades). Em outras palavras, um modelo burro que prevê que os pacientes têm diabetes estaria certo 68% das vezes (que são os zeros).Isso fornece uma linha de base contra a qual podemos querer medir nossa regressão logística modelo.
Quando comparamos a precisão nula de68% e a precisão do modelo de 69%, nosso modelo não parece muito bom. Isso demonstra uma fraqueza da precisão da classificação como métrica de avaliação do modelo. A precisão da classificação não nos diz nada sobre a distribuição subjacente do teste de teste.
Resumindo:
Matriz de confusão
É útil para ajudar você a entender o desempenho do seu classificador, mas não é uma métrica de avaliação do modelo; então você não pode dizer ao scikit para aprender a escolher o modelo com a melhor matriz de confusão. No entanto, existem muitas métricas que podem ser calculadas a partir da matriz de confusão e podem ser usadas diretamente para escolher entre modelos.
Para concluir:
Isenção de responsabilidade: Todos os recursos fornecidos são parcialmente provenientes da Internet. Se houver qualquer violação de seus direitos autorais ou outros direitos e interesses, explique os motivos detalhados e forneça prova de direitos autorais ou direitos e interesses e envie-a para o e-mail: [email protected]. Nós cuidaremos disso para você o mais rápido possível.
Copyright© 2022 湘ICP备2022001581号-3