Do curso: Introdução à Inteligência Artificial (2023)

Selecione o melhor algoritmo

Do curso: Introdução à Inteligência Artificial (2023)

Selecione o melhor algoritmo

— Até agora você viu três exemplos de algoritmos de aprendizado de máquina supervisionados. Vimos o K-vizinhos mais próximos, análise de regressão e bayes ingênuos. Eles são mais usados para classificação, e então vimos o agrupamento K-média que é usado para aprendizado e agrupamento sem supervisão. Lembre-se que cada um deles é como um utensílio de cozinha. Esses utensílios são projetados para um fim específico, mas você ainda pode ser criativo na forma como os utiliza. Da mesma forma como você pode usar um garfo para quebrar seus ovos ou uma faca para descaroçar o abacate. Mas assim como todo bom chef sabe, nunca se apresenta apenas um prato. Em vez disso, julga-se a refeição inteira. É por isso que é muito comum que as equipes de ciência de dados façam algo chamado de método de conjunto. Se você é um ator ou fã de música, você provavelmente já escutou o termo conjunto. É quando um grupo se apresenta em conjunto. O mesmo acontece com algoritmos de aprendizado de máquina. Há algumas maneiras diferentes de se criar conjuntos. Os mais conhecidos são bagging e stacking. Bagging trata-se de usar várias versões do mesmo algoritmo de aprendizado de máquina. Stacking trata-se de usar vários algoritmos de aprendizado de máquina diferentes e empilhá-los um em cima do outro. Eu costumava trabalhar para um grande varejista de melhorias residenciais. Um dos desafios era quais itens colocar perto da caixa registradora. Você ficaria surpreso com quanto varejistas ganham vendendo algo apenas poucos minutos antes do pagamento. Então esse era um grande desafio e eles queriam criar um conjunto de algoritmos de aprendizado de máquina. Debateram qual conjunto levaria aos melhores resultados. Poderiam usar bagging para testar diferentes resultados do mesmo algoritmo. Então veriam se podiam melhorar a precisão deles. Era uma rede varejista nacional então podiam puxar dados de treinamento de lojas de todo o país. Podiam conseguir amostras de dados de lojas aleatórias e usar o K-vizinhos mais próximos para classificiar os conjuntos de dados separadamente. Então agregariam os resultados para ver se podiam traçar uma tendência maior. Iriam agregar as informações do que as pessoas compravam bem antes do pagamento. De certa forma, estavam tirando a média das informações para ver se chegavam a um resultado mais preciso. O varejista também podia tentar alavancar. Nesse caso, em vez de tirar a média das informações juntas, iriam alavancar os resultados passo a passo para ter um conjunto de treinamento dos itens mais populares. Digamos que o produto com mais saída fosse um martelo. Eles podiam usar o K-vizinhos mais próximos para ver o que era frequentemente comprado com o martelo. Digamos que fosse apenas pregos e um cinto de ferramentas. Agora, a maioria de nós intuitivamente sabe que se alguém compra um martelo, provavelmente compra pregos. Mas isso pode não ser útil se queremos colocar algo próximo à fila do caixa. Para isso, talvez precisemos usar algo como os bayes ingênuos. Lembre que os bayes ingênuos são ingênuos porque não supõem que os indicadores são correlacionados. Então, não presume que se alguém for comprar um martelo, vá precisar de pregos. Em vez disso, irá prever outros itens que são populares, mas podem não parecer relacionados. Talvez quem compra martelos sejam mais inclinados a comprar barras de chocolate. Misturar e combinar os algoritmos de aprendizado de máquina trará percepções diferentes com resultados diferentes. Como todo bom conjunto, a acurácia das previsões dependerão da criatividade da sua equipe de ciência de dados.

Conteúdos