Sobre mim
Meu nome é Weslley, nasci em 1985 e tenho construído minha carreira em desenvolvimento e aplicações de tecnologia desde 2009. O atual foco da minha carreira, desde 2014, tem sido Data Science, Machine Learning e correlatos.
Primeiros passos profissionais
Eu comecei minha carreira profissional bastante cedo. Aos 14 anos (em 2000), comecei o curso de Mecânica de Usinagem no SENAI e, ao mesmo tempo, a trabalhar como Menor Aprendiz de Ferramentaria na Electrolux do Brasil, em São Carlos. Foi uma experiência muito interessante pois me proveu um tremendo ganho de responsabilidade profissional, principalmente em entender a cadeira de entrega de valor que acontece em uma indústria, pois o trabalho realizado na Ferramentaria impactava toda a linha de produção de estamparia e injeção de plásticos de uma fábrica que distribuia seus produtos por toda a América Latina. Esta experiência durou até 2002, onde parei minha carreira para me dedicar aos estudos.
Fase acadêmica
[IFSC-USP] Graduação
No ano de 2003 comecei a cursar Bacharelado em Física, com ênfase Computacional, no Campus da USP em São Carlos. Este curso oferecia uma ementa mista onde tinhamos todo o conteúdo essencial de um bacharelado em Física Teórica associado a um denso conteúdo de Computação, onde tivemos disciplinas como Algoritmos e Estruturas de Dados, Arquitetura de Computarodores, Programação Concorrente, Redes de Computadores, Sistemas Operacionais, Microcontroladores, etc.
Ao longo da graduação, tive duas “carreiras” acadêmicas:
- Como Físico Experimental, onde realizei programa de Iniciação Científica com montagem de infraestrutura e ensaios de deposição de micro-filmes de platina sobre material altamente dielétricos (principalmente Zirconia) para a construção de transistores; Também trabalhei com descarga Corona para o tratamento eletrostático de superfícies plásticas para adesão de tintura;
- Como Físico Computacional, onde realizei programa de Iniciação Científica em modelagem e simulação de propriedades ótico-eletrônicas de estruturas semicondutoras;
[IFSC-USP] Mestrado
Em 2010 comecei a realizar a pós-Graduação em Física Aplicada, também no IFSC-USP, dando continuidade ao trabalho que iniciei na minha segunda Iniciação Científica. Ao longo do Mestrado, mudei o foco da modelagem e simulação para a spintrônica, onde passei a explorar também as propriedades magnéticas de estruturas semicondutoras. Neste período também explorei conceitos novos (na época) de High Performance Computing como Computação Heterogênea, processamento de GPUs (CUDA, OpenCL), Arquitetura IBM Cell, entre outros. O resultado foi esta dissertação defendida em Abril de 2010.
Além da parte acadêmica, durante o Mestrado eu também assumi o papel de Administrador da Infraestrutura do laboratório, após a saída dos integrantes mais antigos do laboratório, assumindo a gestão dos servidores, clusters, rede, acessos, etc.
[von Braun Labs] Pesquisador em Nanotecnologia
No ano de 2010, logo após defender meu Mestrado, me juntei ao time de Nanotecnologia do von Braun Labs, um Centro de Pesquisas privado que realizava P&D de tecnologia de ponta junto a empresas e instituições do Brasil e do mundo. Na iniciativa a qual fiz parte, tive oportunidade de trabalhar no desenvolvimento de um novo material para memórias Flash (como as utilizadas em Pen-drives e discos SSD) junto com a Toshiba Semiconductors, CEA-Leti, CCS-Unicamp e CTI Renato Archer.
Durante esta etapa da minha carreira, desempenhei dois papeis importantes dentro do time:
-
Como Pesquisador, desenvolvi modelos ab initio para estruturas de Nitreto de Silício para criar estados de armazenamento de elétrons a partir da formação de estados de defeito em cristais. Também modelei algumas superfícies de grafeno para apoiar o estudo de outros integrantes do time.
-
Como sysadmin aumentei o poder computacional da equipe montando um novo cluster muito mais potente que o anterior, e também trouxe outras ferramentas para conhecimento e prática do time, aumentando a produtividade.
Este trabalho, além de artefatos de Propriedade Intelectual privada, resultou na publicação deste artigo na revista Materials Science and Engineering: B
Carreira na indústria
Fase I - Software
[von Braun Labs] Desenvolvedor de Software
Após a finalização do projeto com a Toshiba, decidi deixar a carreira acadêmica e me voltar para uma carreira na indústria. O próprio von Braun Labs me ofereceu uma oportunidade para trabalhar como Desenvolvedor de Software, uma vez que minha formação e carreira acadêmica até então havia me dado bastante conhecimento e habilidade para desenvolver software.
Nesta etapa da minha carreira, participei de projetos como:
-
Desenvolvimento de firmware para o chip T6ND1, da Toshiba (o qual era utilizado no passaporte eletrônico japonês, na época). Neste projeto tive oportunidade de trabalhar com desenvolvimento de baixo nível, implementando todo a camada de comunicação do protocolo ISO 14443 em rotinas de autodiagnóstico de hardware;
-
Desenvolvimento de aplicação NFC, usando leitores USB e smartphones Android, para prova de conceito de um Cartão Fiscal que substituiria a Nota Fiscal em papel, para uma iniciativa chamada Brasil-ID em conjunto com algumas Secretarias de Fazenda de estados brasileiros;
[von Braun Labs] Coordenador de Desenvolvimento de Web/mobile Apps
No final de 2011, a empresa começou a circular algumas oportunidades de negócio que estavam sendo conversadas com algumas empresas, visando captar ideias de soluções para serem discutidas junto ao cliente, e uma delas me chamou bastante atenção: o desenvolvimento de aplicativos educacionais para computadores com o Windows 8, que na época estava em sua versão alpha e contava com o apoio da Microsoft para a formação de parcerias para desenvolvimento de conteúdo para a nova plataforma. Os aplicativos seriam embarcados nos computadores a serem vendidos com o novo sistema operacional.
Eu propus, na época, a construção de uma família de aplicativos voltados para o ENEM, com conteúdo feito especialmente para ser assistido em um computador, solução a qual interessou à Lenovo na época. Após algumas prototipagens e vários discursos de venda, conseguimos vender a solução e começa minha jornada de intraempreendedorismo, afinal o core business da empresa era RFID e Software embarcado.
Com isso, comecei a formação da equipe contrando 2 pessoas para começar o projeto. No passar de 18 meses, eramos 8 pessoas e tínhamos mais alguns contratos de trabalho com outros parceiros, expandindo nossa atuação também para desenvolvimento Web e de aplicativos/jogos Android e iOS.
As principais conquistas deste período foram:
-
Aplicativos ENEM para Lenovo (Windows 8): que exigiu não apenas a gestão do desenvolvimento do software, mas também de uma rede de professores gravando conteúdo em um estúdio particular exclusivo para o app. Este aplicativo foi embarcado em máquinas Lenovo vendidas no ano de 2013/2014;
-
Aplicativos para CNA (Android e iOS): após um início de conversa para “apenas” digitalizar o conteúdo do CNA para um outro aplicativo Windows 8, nós acabamos fechando um contrato com o CNA para desenvolver alguns aplicativos móveis e jogos para Android e iOS. Na época, 3 aplicativos foram produzidos e lançados nas lojas;
-
Aplicativos e jogos proprietários do von Braun Labs: foram desenvolvidos alguns apps e aplicações web financiadas pelo von Braun Labs, para uso interno ou então para promover a nova capacidade do Centro. A que mais se destacou e chegou a ter alguma relevância foi o aplicativo KidsGeo - Nosso planeta que chegou a estar na sessão de melhores aplicativos educacionais da plataforma.
[von Braun Labs] Gerente de Desenvolvimento de Sistemas
As boas conquistas como Coordenador do time de desenvolvimento web/mobile me abriram outras oportunidades dentro da empresa. Assumi, em conjunto com a iniciativa anterior, a gestão do desenvolvimento e implantação do projeto Brasil-ID, para a automação de procedimentos fiscais usando RFID e sistemas de Back Office. Ao longo desta etapa, gerenciei times multidisciplinares (software, hardware e implantação), e fiz um trabalho corpo a corpo junto à agentes Fiscais e de Secretarias de Fazenda, transportadores, fornecedores de equipamentos e possíveis clientes.
Após alguns meses nesta etapa, a empresa decidiu que gostaria de focar apenas no core business de RFID e Sistemas de Transportes Inteligentes (ITS) e encerramos a iniciativa web/mobile. E neste momento também decidi encerrar minha jornada no von Braun Labs.
Fase II - Data Science/Machine Learning
[Catho] Especialista em Data Science
Em 2014 fiz uma mudança brusca de carreira: mudando de empresa, área, tipo de atuação e de cidade. De Gerente de Desenvolvimento de Software passei para Especialista de Data Science da Catho, voltando para frente de IDEs e terminais e deixando o Powerpoint um pouco de lado. A área de Data Science era nova, bastante promissora e me permitiria usar bastante do meu conhecimento de modelagem, computação de alto desempenho e desenvolvimento de software.
O processo de adaptação foi mais tranquilo do que imaginava, pois já tinha alguma “casca” corporativa e contava com a ajuda de alguns bons amigos que estavam no time. Mas, mesmo assim, contou com alguns pontos interessantes, como:
-
Eu sai de uma empresa de ~100 funcionários para uma de quase 1000;
-
Pela primeira vez trabalharia em uma empresa com foco em vendas B2C e que desenvolve e mantém o próprio produto;
-
Eu não era mais o “dono” daquela iniciativa, então teria que encontrar meu espaço e me encaixar naquela estrutura;
Após a adaptação, passei a trabalhar como o Tech Lead de um projeto de geração de leads de captação de vagas para a Catho, onde uma aplicação identificava empresas e respectivas vagas que não estavam publicadas no nosso marketplace, gerando e priorizando os leads das campanhas de captação. Tecnicamente, a solução contava com algumas técnicas de NLP (bag-of-words e TF-IDF) e um modelo de classificação por Regressão Logística para fazer a classificação de documentos, além de toda a parte operacional (workers, monitoramento, armazenamento de dados, etc.). Como resutado, conseguimos aumentar a taxa de conversão média das campanhas de captação de vagas e, pasmem, esta aplicação continua em operação até hoje (Maio/2020).
[Catho] Gerente de Data Science
Após 9 meses como Tech Lead, fui promovido a Gerente do time de Data Science, assumindo um time de 6 pessoas e que estava voltando o seu foco para um novo tipo de aplicação: Sistemas de Recomendação (RecSys). Já havia uma primeira versão de um recomendador de vagas e agora era momento de otimiza-lo, além de criar a primeira versão de um recomendador de CVs. De maneira resumida, o trabalho feito pelo time neste período foi:
-
Otimizar o recomendador de vagas para utilizar uma estratégia híbrida (filtro colaborativo + content-based), aumentando a cobertura de vagas sendo consumidas na plataforma;
-
Desenvolvimento de um recomendador de CVs real time para vagas recém publicadas na Catho;
-
Uso de recomendações de vagas para alimentar campanhas de CRM (e-mail e notificações push).
No meio desta jornada, nossas ações ganharam repercussão dentro do grupo SEEK e passamos a realizar também desenvolvimento de recomendadores de vagas para a OCC, empresa mexicana do grupo, com objetivo de aumentar o engajamento de candidaturas com o envio de recomendações via push/email logo após uma sessão de candidaturas dos usuários. O sucesso desta iniciativa mostrou nossa capacidade em entregar valor em múltiplos países, resultando na migração de nosso time da Catho para a SEEK, que controla Catho e OCC, formando uma Plataforma Global de Entrega (Global Delivery Platform - GDP) de Inteligência Artificial. Com isso, expandimos o time contratando mais pessoas, abrimos um novo pólo em Belo Horizonte (MG) para aumentar nosso poder de contratação, expatriamos pessoas do time para a Austrália e passamos a ter atuação em Brasil, México e Malásia.
Entretanto, tal situação trouxe algumas conflitos entre minha vida pessoal e profissional e, por priorizar a parte pessoal, acabei deixando o time e seguindo para um novo desafio que me permitisse um melhor balanço pessoal-profissional.
[Pra Construir] CTO
Junto com a minha etapa como Gerente de Data Science da Catho, surgiu a oportunidade de empreender junto com alguns bons amigos no desenvolvimento do PraConstruir: um marketplace de materiais de construção para facilitar a cotação e compra programada para obras em geral. O propósito do negócio em si foi atingir um público com obras de médio e grande porte e que tinham necessidades mais programadas, e não compras urgentes.
Como CTO, desempenhei o papel de guia da concepção e validação do Produto propriamente dito (MVP, Value proposition Canvas, etc.), além de liderar o desenvolvimento do mesmo até o ponto de estarmos prontos para o lançamento. A partir daí, os outros sócios assumiram a parte Operacional do negócio (Marketing, Vendas, entre outros) enquanto eu focava em usar a tecnologia para viabilizar e desbloquear nossas estratégicas.
Resumo: não fomos bem sucedidos e o empreendimento não deu certo após nos dedicarmos por 2 anos. Acredito que desenvolvemos um bom produto, porém não conseguimos vencer as barreiras de um mercado que tem pouca presença online e subestimamos alguns investimentos que seriam necessários em etapas de crescimento. Entretanto, foi um período de bastante aprendizado. O nosso Blog PraConstruir continua no ar, caso queiram conferir!
[Telefonica] Especialista em Data Science
Na metade de 2016 me juntei ao time de Data Science da Telefonica Brasil, um time que havia sido formado cerca de 6 meses antes e fazia parte da Diretoria de BI & Big Data da empresa. Tal time tinha um foco menos tecnológico e mais decision science que a minha posição anterior, o que exigiu alguma adaptação. Outra questão que exigiu adaptação foi a parte corporativa, afinal fazia parte de um grupo centenário com quase 300 mil funcionários em todo o mundo.
Nesta etapa de minha carreira, tive dois desafios:
-
O desafio técnico, para utilizar habilidades de modelagem para suportar o negócio assim como ajudar a empresa com a melhoria da infraestrutura de armazenamento e processamento de dados, uma vez que tínhamos que usar recursos on-premises (caso comum em empresas de telecomunicações sob as normas da ANATEL);
-
O desafio de liderança, pois a operação do time não estava muito bem encaixada e a produtividade estava muito abaixo da expectativa da empresa. Foram alguns meses tensos identificando e corrigindo o modus operandi do time até chegarmos em um formato de melhor encaixe.
Após tal reestruturação, foi possível entrar em “velocidade de cruzeiro” e realizar diversas iniciativas de Data Science com menos fricção do dia-a-dia. Dentre elas, os destaques são:
-
Retenção de clientes pós-pago da Vivo: previsão de churn de clientes e modelagem de uma abordagem sensível ao custo (cost sensitive) de retenção ao cliente, apontando estratégias para manter a alta taxa de retenção com menor custo;
-
Identificação de clientes PJ em planos PF: modelagem e identificação de clusters de clientes com perfil Pessoa Jurídica (PJ) em planos high-end de Pessoa Física (PF), que possuiam altas franquias de dados e vários dependentes da linha. Tal iniciativa suportou a tomada de decisão da criação de planos PJ com as mesmas características de uso e preço;
-
Identificação de fraude de clonagem de cartões SIM: utilização de dados geográficos de utilização da linha telefônica móvel (chamadas e dados), foi construído um modelo que identificava casos de clonagem e alimentaria uma operação de segurança dos clientes;
-
Mobilidade de clientes: utilização de dados geográficos de utilização de dados para modelar a mobilidade de clientes, para suportar o planejamento de infraestrutura da empresa em implantação, manutenção e melhoria das ERBs;
Após cerca de 1 ano, mudanças estruturais na empresa trouxeram um novo escopo para a nossa área, que passaria a trabalhar na implantação de outras plataformas na empresa, ao invés de desenvolver iniciativas para melhorar a performance do negócio. Com isso, decidi procurar outro desafio - assim como todo o restante da equipe.
[Daitan Group] Arquiteto de AI & Analytics
Meu desafio seguinte foi na Daitan, voltando para o mundo do P&D em Campinas. A empresa estava planejando seus primeiros passos em Data Science e AI e fui contratado como o primeiro Data Scientist da empresa, onde vestiria dois chapéus:
Chapéu Daitan
Enquanto recurso da Daitan, contribuiria para a estruturação de diversos processos dentro da empresa, para que a mesma ganhasse tração em AI e conseguisse crescer neste mercado. Os principais processos que contribui na estruturação foram:
-
Vendas de projetos, interagindo diretamente com o board da empresa, assim como o time de Inovação, treinando-os na avaliação de oportunidades de aplicação de AI, assim como na estruturação de propostas de soluções técnicas a serem apresentadas aos potenciais clientes;
-
Contratação, colaborando com o time de Hiring no desenho de processos específicos para a contratação de profissionais do mercados de dados, desenhando roteiros de entrevista, treinando Gerentes e participando de decisões finais de contratação;
-
Formação de uma comunidade de prática de AI (CoP - Community of practice), para compartilhar conhecimento e engajar pessoas da empresa na utilização de AI em seu cotidiano.
Symphony
Como papel principal, eu assumi o papel de Arquiteto de Analytics & AI para um cliente da Daitan: a Symphony começando o time de dados da empresa junto ao diretor de BI da Symphony. Nesta iniciativa, desempenhei um papel fullstack por algum tempo, atuando da infraestrura até a aplicação. As principais iniciativas desta etapa foram:
-
Infraestrutura de dados: Melhorias na infraestrutura e arquitetura de dados da empresa, saindo de jobs Hive rodando em AWS EMR para uma aplicação Apache Spark rodando em AWS Data Pipeline com melhoria de performance e redução de custo; Modelagem de Data Warehouse (AWS RedShift); Migração de processos da nuvem AWS para Google Cloud;
-
Visualização de dados: Implantação e manutenção de ferramenta de visualização de dados (Domo) que era utilizada por toda a empresa e também por alguns clientes da Symphony;
-
Engajamento de novos usuários: Implantação de pipeline de dados e recomendações para onboarding de usuários na plataforma, recomendando conexões e comportamentos para os novos usuários e aumentando a base de usuários ativos na ferramenta;
-
Concepção de novas aplicações: Protótipagem de API para identificação de dados sensíveis em conteúdo trafegado na plataforma (Data-loss prevention - DLP);
Enquanto estava na Daitan, recebi uma proposta de uma empresa na qual tinha vontade de trabalhar há algum tempo e não pude recusar.
[iFood] Coordenador de Data Science
Meu “namoro” com o iFood começou quando eu estava de saída da Telefonica. Havia participado de um processo seletivo e fui recusado por ser muito Sênior para o momento da área. Ao longo do ano que se passou, acabei ficando próximo do time de Data Science do iFood via Meetup Data Science Campinas até que surgiu uma posição com o meu perfil.
Entrei no iFood com a missão de ajudar a organizar melhor o time e aumentar o volume e relevância das entregas do time, o qual era multidisciplinar e tinha capacidade de atuar de maneira diversa. Boa parte do esforço de reorganização esteve em identificar as atividades que cada pessoa tinha maior capacidade de entrega, assim como os pontos onde cada um precisa se desenvolver e criar um plano para tal desenvolvimento.
Após nos reorganizarmos, começamos um ciclo muito interessante de entregas dentro da empresa. As principais contribuições desta etapa foram:
-
Finalização da plataforma de modelos (Alfred): o time de Data já tinha desenvolvido uma plataforma inspirada no Michelangelo, entretanto nenhum modelo tinha ido para produção em alta escala e alguns ajustes foram necessários;
-
Modelo anti-fraude de pagamentos online: com um alto volume de pedidos pagos pelo aplicativo (via cartão de crédito), a utilização de plataformas terceiras para detecção de fraudes de pagamento tornou-se uma barreira para o cresimento da operação do time de Payments. Com esta motivação, desenvolvemos um modelo anti-fraude de transações de cartão de crédito pelo app com melhor assertividade que os serviços terceiros anteriores, o que reduziu o custo operacional pela redução de chargebacks e também pelo não pagamento por cada transição validada em serviço terceiro. Esta iniciativa foi um fator que alavancou o crescimento da área de pagamentos do iFood, que acabou virando uma spin-off e foi a semente do que hoje é a Movile Pay;
-
Recomendação de restaurantes (Produto e CRM): desenvolvemos um algoritmo de recomendação personalizada para sugerir, aos clientes, restaurantes aderentes ao seu perfil e impactar na conversão de compra. Não tivemos muito sucesso nas recomendações dentro do app, mas as campanhas de CRM via notificações push foram muito bem sucedidas;
-
Previsão de localização do pedido: como a localização do cliente era uma informação chave para ações offline do iFood, construímos um modelo que previa a localização para onde o cliente faria pedido ao longo da semana, com alto índice de assertividade;
-
Time series para identificação de incidentes: para permitir uma maior reatividade da empresa em incidentes operacionais, desenvolvemos um modelo de Série Temporal que previa o volume de pedidos a serem recebidos a cada 15 minutos. Com esta previsão, nos tornamos capazes de identificar incidentes rapidamente e notificar todas as áreas envolvidas;
-
Implantação de framework e guild de Testes A/B na empresa: ao chegar no time, já havia sido desenvolvido um framework para o desenho, execução e análise de resultados de Testes A/B. Meu esforço foi em contribuir na implantação deste framework dentro do time de Produtos e realizar ajustes no framework de acordo com novos cenários incobertos que surgissem;
-
Personalização de ranking de restaurantes: nesta iniciativa, foi realizado um esforço de infraestrutura para que a ordenação do ranking de restaurantes fosse realizada pela nossa plataforma, e não dentro do banco de dados. Com isso, passamos a modelar a ordenação do ranking de forma a aumentar a liquidez de restaurantes recebendo pedidos;
Por mais que tenha sido intensa, a minha passagem pelo iFood concorreu com diversos problemas pessoais e familiares. Ao sentir que não estava dando conta de levar minha vida pessoal e profissional com qualidade, decidi deixar o iFood, pois os próximos passos exigiriam um esforço o qual não conseguiria desempenhar sem sacrifícios pessoais.
[SEEK] Gerente de Inteligência Artificial
Em Novembro de 2018 eu “voltei” ao time o qual fiz parte na Catho entre 2014-2016. Neste momento, o time era parte da SEEK e estava se fundindo a uma outra estrutura de AI do grupo - o AIPS (AI Platform Services), e nos tornamos o AIPS Americas, para nos dedicar ao desenvolvimento, implantação e operação de plataformas e modelos de AI nos negócios da SEEK nas Américas (Brasil e México), atuando em empresas como Catho, Catho Educação e OCC Mundial, além de algumas colaborações pontuais com outras regiões de atuação do grupo.
Nesta etapa, onde atuo como gestor sênior, tenho dois tipos de contribuição:
- gestão de iniciativas junto às empresas para o desenvolvimento de iniciativas que impactem as métricas de negócio;
- reestruturação o time para melhorar a cultura e produtividade;
Iniciativas de impacto no negócio
-
Otimização de engines de busca a partir de dados geolocalização: foram várias iniciativas que exploraram dados geolalizados da plataforma para melhorar a experiência usuários ativos e conversão de novos usuários. Tais iniciativas geraram ganhos expressivos de receita junto às empresas das Américas;
-
Utilização de conteúdo personalizado em CRM: desenvolvemos e implantamos um novo serviço de recomendações personalizadas dedicada ao envio de novas vagas para ex-assinantes, integrando tal serviço a uma régua de envio de alerta de novas vagas. Com isso, melhoramos as métricas de conversão de usuários retornantes e trouxemos mais oportunidades para que o time Comercial pudesse realizar novas campanhas sobre este público;
-
Aumento de vendas de cursos via diversidade: desenvolvemos um novo modelo de ordenação de resultados de buscas de cursos que aumentava a diversidade de instituições (faculdades, universidades, etc) na ordenação, aumentando a janela de oportunidade de venda de instituições locais ou de marcas menos expressivas, o que aumentou significativamente o volume total de vendas assim como a liquidez de parceiros realizando vendas pela plataforma. Este mesmo modelo, posteriormente, foi integrado àlgumas plataformas na Ásia;
-
Aumento de candidaturas em vagas especiais via recomendações: potencializamos uma nova fonte de receita (vagas premium) encontrando os melhores candidatos para tais vagas, a partir de uma engine de recomendação de CVs, e alimentando uma régua de relacionamento que convidava tais candidatos a se candidatarem em tais vagas;
Reestruturação da equipe
-
Re-enquadramento funcional de pessoas do time: ao chegar na equipe, me deparei com um time muito bom tecnicamente, porém com algumas peças “fora do lugar”. Com isso, foi realizado um trabalho de re-enquadrar tais peças para dar oportunidade para que tais pessoas pudessem exercer suas melhores habilidades, porém ainda dentro de suas áreas de interesse. Houveram também desligamentos de pessoas que não tinham enquadramento factível dentro de nossa estrtura;
-
Mudança cultural: houve também um esforço inicial de mudança cultural para aumentar a colaboração entre as pessoas, melhor absorção de mudanças de prioridades e aumento da qualidade do trabalho sendo realizado. Tais mudanças resultaram em desligamentos e levaram o time a um aumento de produtividade com menos pessoas;
-
Implantação de cultura MLOps no time: por ser um time que possui plataformas que são pilares importantes na sustentação dos negócios nas Américas, era muito importante criarmos uma cultura MLOps para aumentar índices de performance das plataformas e viabilizar melhorias contínuas e ágeis em nossas engines. Com isso, foi criado um time dedicado a MLOps que está 100% do tempo focado em tais melhorias e também estabelece boas práticas para o restante do time;
[TO BE CONTINUED]