Solução de negócio para empresa no ramo imobiliário
Neste projeto de Insights eu usei Python para maximizar a receita da empresa imobiliária fictícia House Rocket, indicando as melhores oportunidades de compra e venda de imóveis.
Também desenvolvi um dashboard com Streamlit para facilitar a Visualização e Análise dos dados de qualquer lugar. E o resultado desta solução, caso fosse implementado, seria uma receita de 273 MM de dólares.
As ferramentas utilizadas foram:
- Python, Pandas, Matplotlib, Plotly, Folium e Geopandas.
- Jupyter Notebook e VSCode.
- Git e Github.
- Streamlit.
- Medidas de Tendência Central e Dispersão.
- Análise Exploratória de Dados.
Criação de bot para predição de vendas futuras das lojas Rossmann
Neste projeto usei Python, Flask e Algoritmos de Regressão Linear para prever as vendas da Rossmann, uma rede de drogarias, nas próximas seis semanas, para determinar a alocação de recursos para renovação de cada loja.
O resultado foi o desenvolvimento de um bot no Telegram que retorna o valor previsto apenas com o número de identicação de cada loja,
possibilitando o acesso aos resultados de qualquer lugar.
As ferramentas utilizadas foram:
- Python, Pandas, Matplotlib, Seaborn e Sklearn.
- Jupyter Notebook e VSCode.
- Flask e API's em Python.
- Heroku e Telegram Bot.
- Git e Github.
- Medidas de Tendência Central e Dispersão.
- Análise Exploratória de Dados.
- Algoritmos de Regressão (Linear, Lasso, Random Forest, XGBoost, LightGBM).
- Métodos de Cross-Validation, Otimização de Hiperparâmetros e Métricas de Performance de Algoritmos (RMSE, MAE, MAPE, R²).
Predição de Cross Sell para companhia de seguros
Neste projeto usei Python, Pandas, Flask e Algoritmos de Classificação para prever
a propensão de interesse no novo produto de seguros de veículos para uma companhia
de seguros de saúde. O produto de dados desenvolvido foi uma planilha no Google
Sheets, facilitando e otimizando o trabalho do time de vendas, que ranqueia os
clientes pela propensão baseado nos dados inseridos. O modelo desenvolivdo é 288%
melhor no alcance de clientes interessados, que permitiria um retorno financeiro de
146 Bi. a mais que o modelo aleatório.
As ferramentas utilizadas foram:
- Python, Pandas, Matplotlib, Plotly, Seaborn e Sklearn.
- Jupyter Notebook e VSCode.
- Git e Github.
- Render, Google Sheets e Apps Scripts.
- Medidas de Tendência Central e Dispersão.
- Análise Exploratória de Dados.
- Algoritmos de Classificação (k-Nearest Neighbors, Regressão Logística, Random
Forest, Extra Tree, XGBoost, LightGBM e CatBoost).
- Métodos de Cross-Validation, Otimização de Hiperparâmetros e Métricas de
Performance de Algoritmos (Precision @ k, Recall @ k).
Programa Insiders - Fidelização de Clientes
Neste projeto usei Python, Pandas, Scipy e Algoritmos de Clusterização para determinar
um grupo de clientes de um e-commerce que se destaquem da base visando a implementação
de um programa de fidelidade para alavancar o faturamento da empresa. Os produtos de
dados desenvolvidos foram uma lista com a dados de todos os clientes e seus clusters,
um relatório com questões abordadas pelo time de marketing, e dashboard com Power BI
alimentado com dados atualizados através de serviços da AWS. A solução desenvolvida
apresenta um grupo, formado por 8,6% da base de clientes, que detem 58,87% do faturamento
total da empresa (£5.44 Mi), e um faturamento médio de £11 Mil.
As ferramentas utilizadas foram:
- Python, Pandas, Matplotlib, Plotly, Seaborn, Scipy Sklearn.
- Jupyter Notebook e VSCode.
- Git e Github.
- Serviços AWS: S3, RDS e EC2.
- Medidas de Tendência Central e Dispersão.
- Análise Exploratória de Dados com Ydata Profiling (Pandas Profiling).
- Técnicas de Redução de Dimensionlidade (PCA, UMAP, t-SNE e Tree-based Embedding)
- Algoritmos de Clusterização (K-Means, Gaussian Mixture Model,
Hierarchical Clustering e DBSCAN).
- Métricas de Performance de Algoritmos (Within-Cluster Sum of Square e Silhouette Score).
- Linux, PostgreSQL e Power BI
Teste de Hipóteses - Soluções de casos
Nesse projeto apliquei técnicas estatísticas de hipóteses em cenários de diferentes empresas, para planejar desde as soluções e
design de experimentos, até coleta de dados e análise de testes A/B com técnicas tradicionais e modernas, sempre
considerando as limitações e expectativas de cada caso. Além de desenvolver e simular situações para uso de diferentes
agentes de Multi-Armed Bandit.
As ferramentas utilizadas foram:
- Python, Pandas, Matplotlib, Plotly, Seaborn, Scipy, Sklearn, Statsmodels.
- Pingouin, BeautifulSoup4 e Selenium
- Jupyter Notebook, VSCode e Flask.
- Git e Github.
- Medidas de Tendência Central e Dispersão.
- Design de Experimentos: nível de confiança, nível de significância, tamanho do efeito e poder estatístico.
- Teste A/B: teste t de Student, teste z, qui-quadrado, Mann-Whitney, Wilcoxon.
- Teste A/B/n: ANOVA, Kruskall-Wallis, Teste de Tukey, Teste de Dunn.
- Inferência Bayesiana: Posteriori e Priori
- Normalidade e Variância: Shapiro-Wilk, QQ-plot, Teste F.
- Políticas de MAB: Random, Omniscient, Epsilon-Greedy, Upper Confidence Bound, Thompson Sampling.
Monitoring and Predicting Subway Passenger Demand in São Paulo City
Projeto voluntário colaborativo com um time de diversos países proposto pela
plataforma Omdena com objetivo
de desenvolver um sistema de monitoramento e predição da demanda de passegeiros
do metrô da cidade de São Paulo. Com duração de 5 semanas, participei ativamente
de diversos estágios incluindo coleta e preparação dos dados, análise exploratória
dos dados, visualização dos dados, desenvolvimento e treinamento dos modelos e
desenvolvimento da aplicação web. O produto de dados entregue foi o webapp em
Streamlit com introdução do projeto, dashboards desenvolvidos pelos participantes,
insights encontrados na etapa exploratória, predição do modelo para diferentes linhas
de trem, descrição das etapas do projeto e informações sobre o time.
As ferramentas utilizadas foram:
- Python, Pandas, Matplotlib, Plotly, Seaborn, Scipy, Sklearn, Statsmodels.
- Algoritmos de Séries Temporais.
- Jupyter Notebook, VSCode.
- Git e Github.
- Streamlit.
- Análise Exploratória de Dados.
- Medidas de Tendência Central e Dispersão.
Análise de Elasticidade de Preço em E-commerce
Realizei o estudo, análise de dados e elasticidade de preço-demanda de diferentes e-commerces com foco na Best Buy,
comparando suas vendas com concorrentes e calculando a relação de uma categoria de seus produtos com seus preços de venda.
O produto de dados foi a entrega de um relatório respondendo perguntas de negócio e um dashboard interativo em Streamlit
para compreensão do impacto de descontos e acréscimos nos preços do produto e impacto na demanda. A aplicação dos resultados
tem um retorno previsto em torno de 461,1% acima da receita atual média para os produtos selecionados.
As ferramentas utilizadas foram:
- Python, Pandas, Matplotlib, Seaborn, Statsmodels.
- Jupyter Notebook, VSCode.
- Git e Github.
- Streamlit.
- Análise Exploratória de Dados.
- Medidas de Tendência Central e Dispersão.
- Técnicas de Elasticidade de Preço-demanda.
- Técnicas de Elasticidade de Preço cruzada.