In the past few months, I have been investing my time on AWS studies. During this period, I went from literally zero to writer. Yes, I just release my AWS book about machine learning and I am gonna tell you why you should take an action and step into the AWS world. No more excuses,Continuar lendo “Passing the AWS Machine Learning Exam: it only depends on you”
Arquivos do autor:Weslley Moura
Sentiment analysis com tensorflow 2.0 e word embedding layer
Word embedding é uma forma muito interessante para criar uma representação numérica para um texto. Ao contrário de abordagens clássicas como one hot encoding ou TD-IDF, word embedding consegue representar as palavras e seu contexto com meio de um embedding space. Existem várias formas para se criar um embedding space e eu já escrevi sobreContinuar lendo “Sentiment analysis com tensorflow 2.0 e word embedding layer”
Preparando dados para dashboard – Exemplo Google Data Studio
Nem sempre os dados estão no formato correto para criação de relatórios. É muito comum termos que realizar algumas limpezas e transformações para que tenhamos menos trabalho durante a criação daquele dashboard! Neste artigo vou exibir um caso de uso no qual passei por esta situação. Os dados são muito simples: referem-se aos dados deContinuar lendo “Preparando dados para dashboard – Exemplo Google Data Studio”
Time series forecasting com Python
Neste artigo vou passar pelas principais etapas de modelagem para criação de um modelo de forecasting. O notebook foi escrito em Python e possui conceitos importantes sobre decomposição de série temporal, diferenciação, estacionariedade e visualizações. O material está disponível em https://anaconda.org/weslleymoura/time_series_forecasting_python/notebook Também disponibilizei o material no meu repositório do git https://github.com/weslleymoura/hackinganalytics/tree/master/time_series_forecasting_com_python Abraços!
Um modelo completo de machine learning (de ponta a ponta)
Se você está começando a estudar machine learning, é comum que tenha várias dúvidas sobre como treinar e usar seus modelos. As pessoas falam sobre uma série de termos, como análise exploratória de dados, data transformation, feature selection, model selection, cross-validation…porém, você sabe como e quando deve usar todos estes componentes no seu modelo? EContinuar lendo “Um modelo completo de machine learning (de ponta a ponta)”
Redes neurais autoencoders – Feed Forward
Autoencoder é uma classe de arquitetura de rede neural que tem como objetivo aprender como comprimir/reduzir um conjunto de dados (etapa conhecida como encoder) e, em seguida, aprende a reconstruir os dados a partir da versão que foi previamente reduzida (etapa conhecida como decoder). Espera-se que os dados reconstrúidos sofram alguma perda de informação (preferencialmenteContinuar lendo “Redes neurais autoencoders – Feed Forward”
Redes neurais do zero – Parte 3 de 3
Finalizando esta série de implementação de redes neurais do zero, criaremos um modelo de classificação com várias camadas ocultas. A aprendizagem de máquina que usa diversos módulos (neste caso camadas) para aprender uma determinada função com base nos dados de treino é também conhecida como deep learning.
Redes neurais do zero – Parte 2 de 3
Esta é a segunda parte de uma série de posts sobre redes neurais do zero! Desta vez, iremos criar uma rede neural conhecida como Multi Layer Perceptron (MLP). Além do código, também estou esquematizando os cálculos que devemos fazer nas etapas de feed forward e back propagation.
Redes neurais do zero – Parte 1 de 3
Nesta série de posts vou mostrar como criar modelos de redes neurais de forma manual, usando a biblioteca numpy. Vou criar os notebooks no Google colab e fazer o passo a passo da rede neural, incluindo explicações sobre os tipos de arquiteturas e detalhes de cálculo.
Comparando textos com TF-IDF e Cosine Similarity no Gensim
Neste artigo vou utilizar gensim para criar uma modelo capaz de identificar a similaridade entre textos. A ideia é que você consiga identificar o(s) texto(s) mais similares(s) a um determinado texto de entrada.