{"id":118378,"date":"2023-02-16T10:00:32","date_gmt":"2023-02-16T13:00:32","guid":{"rendered":"https:\/\/fluency.io\/br\/blog\/?p=15195"},"modified":"2023-07-26T14:11:57","modified_gmt":"2023-07-26T17:11:57","slug":"airflow-data-science","status":"publish","type":"post","link":"https:\/\/homolog.fluency.io\/br\/blog\/airflow-data-science\/","title":{"rendered":"Airflow para Data Science: como orquestrar e agendar tarefas em um ambiente de Big Data"},"content":{"rendered":"\n<p>Nos dias de hoje, a coleta, processamento e <a href=\"https:\/\/fluency.io\/br\/blog\/guia-data-analytics\/?utm_source=blog\" target=\"_blank\" rel=\"noreferrer noopener\">an\u00e1lise de dados<\/a> se tornou uma atividade vital para muitas organiza\u00e7\u00f5es. Como resultado, o gerenciamento eficiente de pipelines de dados se tornou uma preocupa\u00e7\u00e3o importante para a maioria das equipes de Data Science. Para lidar com essa necessidade, muitas organiza\u00e7\u00f5es adotam ferramentas de orquestra\u00e7\u00e3o de fluxo de trabalho, como <a href=\"https:\/\/airflow.apache.org\/\" target=\"_blank\" rel=\"noreferrer noopener\">Apache Airflow<\/a>.<\/p>\n\n\n\n<p>O Airflow \u00e9 uma ferramenta poderosa para orquestrar tarefas em ambientes de Big Data. Ele permite aos usu\u00e1rios agendar e executar fluxos de trabalho complexos, gerenciando depend\u00eancias, agendamentos e monitoramento de tarefas. Com Airflow, \u00e9 poss\u00edvel automatizar processos, executar tarefas em paralelo e gerenciar com efici\u00eancia pipelines de dados.<\/p>\n\n\n\n<p>Neste post, vamos explorar os recursos do Airflow para gerenciamento de tarefas em ambientes de Big Data. Voc\u00ea aprender\u00e1 como criar DAGs (Directed Acyclic Graphs), como programar tarefas com base em depend\u00eancias e como monitorar o progresso das tarefas. Al\u00e9m disso, vamos explorar alguns dos principais recursos do Airflow, como o painel web e o sistema de logs.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><strong>Como implementar pipelines de Machine Learning com Airflow<\/strong><\/h2>\n\n\n\n<p>Implementar pipelines de Machine Learning \u00e9 um processo complexo que envolve muitas etapas, como coleta e prepara\u00e7\u00e3o de dados, treinamento de modelos, avalia\u00e7\u00e3o de desempenho e implanta\u00e7\u00e3o em produ\u00e7\u00e3o. A gest\u00e3o eficiente de todas essas tarefas pode ser um desafio, especialmente em ambientes de Big Data, onde h\u00e1 muitos recursos e depend\u00eancias em jogo.&nbsp;<\/p>\n\n\n\n<p>\u00c9 a\u00ed que o Airflow entra em cena. O Airflow \u00e9 uma ferramenta poderosa para ajudar a automatizar e <a href=\"https:\/\/fluency.io\/br\/blog\/como-criar-um-projeto-de-machine-learning-com-python\/?utm_source=blog\" target=\"_blank\" rel=\"noreferrer noopener\">gerenciar pipelines de Machine Learning<\/a>, oferecendo recursos avan\u00e7ados de orquestra\u00e7\u00e3o de fluxo de trabalho. Com o Airflow, \u00e9 poss\u00edvel programar e executar tarefas de coleta de dados, processamento e treinamento de modelos, avalia\u00e7\u00e3o de desempenho e implanta\u00e7\u00e3o em produ\u00e7\u00e3o, tudo isso de forma automatizada e escal\u00e1vel.<\/p>\n\n\n\n<p>Para implementar um pipeline de Machine Learning com Airflow, voc\u00ea precisar\u00e1 criar uma DAG (Directed Acyclic Graph) que represente o fluxo de trabalho. A DAG \u00e9 uma representa\u00e7\u00e3o visual do fluxo de tarefas que precisam ser executadas para concluir o pipeline. Cada tarefa \u00e9 representada por um n\u00f3 na DAG, e as depend\u00eancias entre as tarefas s\u00e3o representadas pelas arestas. Com o Airflow, voc\u00ea pode agendar a execu\u00e7\u00e3o das tarefas e monitorar o progresso do pipeline.<\/p>\n\n\n\n<p>Uma vez que voc\u00ea tenha criado sua DAG, voc\u00ea pode come\u00e7ar a adicionar tarefas para coletar e processar dados, treinar modelos, avaliar o desempenho e implantar em produ\u00e7\u00e3o. O Airflow suporta a execu\u00e7\u00e3o de tarefas em paralelo, o que significa que voc\u00ea pode treinar v\u00e1rios modelos ao mesmo tempo. Al\u00e9m disso, o Airflow oferece suporte para integra\u00e7\u00e3o com outras ferramentas populares de Machine Learning, como <a href=\"https:\/\/fluency.io\/br\/blog\/frameworks-pyhton\/?utm_source=blog\" target=\"_blank\" rel=\"noreferrer noopener\">TensorFlow e PyTorch<\/a>, o que significa que voc\u00ea pode usar as ferramentas que j\u00e1 conhece e ama para construir seus modelos.<\/p>\n\n\n\n<p>Em resumo, o Airflow \u00e9 uma ferramenta essencial para gerenciar pipelines de Machine Learning. Ele oferece recursos poderosos para automatizar e gerenciar fluxos de trabalho complexos, permitindo que os cientistas de dados e engenheiros de Machine Learning concentrem-se na constru\u00e7\u00e3o de modelos de alta qualidade, em vez de se preocupar com a gest\u00e3o de tarefas e depend\u00eancias.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><strong>Airflow para gerenciamento de pipelines de streaming de dados em tempo real<\/strong><\/h2>\n\n\n\n<p>O Airflow \u00e9 uma ferramenta poderosa para gerenciar pipelines de dados em lote, mas tamb\u00e9m pode ser usado para gerenciar pipelines de streaming de dados em tempo real. Com o Airflow, \u00e9 poss\u00edvel criar DAGs para gerenciar a ingest\u00e3o de dados de fontes de streaming, process\u00e1-los em tempo real e, em seguida, enviar os resultados para um destino de sa\u00edda. Essa abordagem oferece uma maneira eficiente de lidar com fluxos de dados cont\u00ednuos e em tempo real, permitindo que voc\u00ea obtenha insights mais rapidamente e tome decis\u00f5es mais informadas.<\/p>\n\n\n\n<p>Para usar o Airflow para gerenciar pipelines de streaming de dados, voc\u00ea precisar\u00e1 integr\u00e1-lo com uma plataforma de streaming de dados, como Apache Kafka ou Apache Spark. Essas plataformas fornecem uma maneira de processar e armazenar grandes volumes de dados em tempo real, permitindo que voc\u00ea ingira, processe e transmita dados de maneira eficiente. Com o Airflow, voc\u00ea pode agendar a execu\u00e7\u00e3o de tarefas de ingest\u00e3o de dados e processamento, garantindo que o pipeline seja executado de maneira confi\u00e1vel e consistente.<\/p>\n\n\n\n<p>O Airflow oferece suporte a tarefas de streaming de dados em tempo real usando o conceito de operadores. Os operadores s\u00e3o componentes que executam tarefas espec\u00edficas no pipeline, como ler dados de uma fonte de streaming, transformar dados em tempo real ou enviar dados para um destino.&nbsp;<\/p>\n\n\n\n<p>O Airflow fornece uma ampla gama de operadores para processamento de streaming de dados, como o operador KafkaConsumer para leitura de dados do Kafka, o operador SparkStreamingOperator para processamento de dados em tempo real com o Spark e o operador DataflowStreamingPythonOperator para processamento de dados em tempo real com o Google Cloud Dataflow.<\/p>\n\n\n\n<p>Em resumo, o Airflow \u00e9 uma ferramenta vers\u00e1til para gerenciar pipelines de streaming de dados em tempo real. Com o Airflow, \u00e9 poss\u00edvel criar DAGs para gerenciar a ingest\u00e3o, processamento e sa\u00edda de dados em tempo real, permitindo que voc\u00ea obtenha insights mais rapidamente e tome decis\u00f5es mais informadas. Se voc\u00ea est\u00e1 lidando com <a href=\"https:\/\/fluency.io\/br\/blog\/coleta-de-dados\/?utm_source=blog\" target=\"_blank\" rel=\"noreferrer noopener\">grandes volumes de dados em tempo real<\/a>, o Airflow pode ser uma ferramenta valiosa para simplificar e automatizar o gerenciamento de seus pipelines de streaming de dados.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><strong>Como usar o Airflow para automatizar testes de integra\u00e7\u00e3o em pipelines de dados<\/strong><\/h2>\n\n\n\n<p>O Airflow \u00e9 uma ferramenta de gerenciamento de pipelines de dados que pode ser usada para automatizar testes de integra\u00e7\u00e3o em pipelines de dados. Com o Airflow, \u00e9 poss\u00edvel criar DAGs que executam etapas espec\u00edficas em um pipeline de dados e, em seguida, testar se essas etapas foram executadas corretamente. Isso \u00e9 especialmente \u00fatil quando voc\u00ea tem v\u00e1rios pipelines de dados em execu\u00e7\u00e3o simultaneamente e deseja garantir que os dados sejam processados \u200b\u200bcorretamente em todos os pipelines.<\/p>\n\n\n\n<p>Para automatizar testes de integra\u00e7\u00e3o com o Airflow, \u00e9 necess\u00e1rio definir testes para cada etapa do pipeline de dados. Cada teste deve verificar se a etapa do pipeline foi executada corretamente e se os resultados produzidos s\u00e3o esperados. Isso pode ser feito usando a biblioteca de teste do Python ou outras ferramentas de teste.<\/p>\n\n\n\n<p>O Airflow oferece suporte a testes de integra\u00e7\u00e3o por meio de operadores de teste. Os operadores de teste s\u00e3o semelhantes aos operadores de tarefas, mas s\u00e3o usados \u200b\u200bpara executar testes em vez de tarefas. Os operadores de teste permitem verificar se os dados produzidos por uma etapa espec\u00edfica do pipeline de dados s\u00e3o iguais aos resultados esperados. Se os resultados n\u00e3o forem iguais, o teste falhar\u00e1 e uma notifica\u00e7\u00e3o poder\u00e1 ser enviada para alertar sobre o problema.<\/p>\n\n\n\n<p>Ao usar o Airflow para automatizar testes de integra\u00e7\u00e3o em pipelines de dados, \u00e9 poss\u00edvel identificar rapidamente problemas e falhas no pipeline e tomar medidas para corrigi-los antes que eles afetem a integridade dos dados. Al\u00e9m disso, a automa\u00e7\u00e3o de testes de integra\u00e7\u00e3o com o Airflow permite que os testes sejam executados em intervalos regulares ou sob demanda, tornando mais f\u00e1cil garantir a qualidade do pipeline de dados em todos os momentos. Isso \u00e9 especialmente importante em ambientes de produ\u00e7\u00e3o, onde a qualidade dos dados \u00e9 cr\u00edtica para o sucesso das opera\u00e7\u00f5es de neg\u00f3cios.<\/p>\n\n\n\n<p>Em resumo, o uso do Airflow para automatizar testes de integra\u00e7\u00e3o em pipelines de dados \u00e9 uma t\u00e9cnica valiosa para garantir a qualidade e integridade dos dados. Com a configura\u00e7\u00e3o adequada dos testes, \u00e9 poss\u00edvel detectar rapidamente problemas e tomar medidas para corrigi-los antes que afetem negativamente a opera\u00e7\u00e3o dos neg\u00f3cios. Al\u00e9m disso, a automa\u00e7\u00e3o dos testes com o Airflow permite que os testes sejam executados em intervalos regulares ou sob demanda, tornando mais f\u00e1cil garantir a qualidade dos dados em todos os momentos.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><strong>Melhores pr\u00e1ticas para o uso do Airflow na orquestra\u00e7\u00e3o de pipelines de dados escal\u00e1veis<\/strong><\/h2>\n\n\n\n<p>Airflow \u00e9 uma ferramenta de orquestra\u00e7\u00e3o de pipelines de dados muito popular para gerenciamento de tarefas e fluxos de trabalho em pipelines de dados. No entanto, para implementar uma solu\u00e7\u00e3o escal\u00e1vel, \u00e9 necess\u00e1rio seguir algumas pr\u00e1ticas recomendadas para garantir que o Airflow funcione de maneira eficiente e eficaz.<\/p>\n\n\n\n<p>A primeira pr\u00e1tica recomendada \u00e9 planejar e projetar o pipeline de dados cuidadosamente. Isso inclui identificar quais s\u00e3o as principais etapas do pipeline, quais recursos ser\u00e3o necess\u00e1rios para cada etapa e como esses recursos ser\u00e3o alocados e gerenciados. Tamb\u00e9m \u00e9 importante ter em mente os objetivos de neg\u00f3cios do pipeline e como eles afetar\u00e3o a configura\u00e7\u00e3o e execu\u00e7\u00e3o do pipeline.<\/p>\n\n\n\n<p>Outra pr\u00e1tica recomendada \u00e9 usar operadores e sensores eficazes. O Airflow oferece uma ampla variedade de operadores e sensores que podem ser usados \u200b\u200bpara diferentes tarefas em um pipeline de dados. \u00c9 importante escolher os operadores e sensores corretos para cada etapa do pipeline, levando em considera\u00e7\u00e3o os requisitos de processamento, <a href=\"https:\/\/fluency.io\/br\/blog\/coleta-de-dados\/?utm_source=blog\" target=\"_blank\" rel=\"noreferrer noopener\">o volume de dados<\/a> e o tempo necess\u00e1rio para processar as tarefas.<\/p>\n\n\n\n<p>Al\u00e9m disso, a execu\u00e7\u00e3o de tarefas em paralelo \u00e9 uma pr\u00e1tica recomendada para melhorar a efici\u00eancia do pipeline de dados. O Airflow oferece recursos para executar tarefas em paralelo, incluindo o uso de DAGs com m\u00faltiplas tarefas e o uso de pools de tarefas. Ao utilizar esses recursos, \u00e9 poss\u00edvel reduzir o tempo necess\u00e1rio para concluir um pipeline de dados e melhorar a escalabilidade do pipeline.<\/p>\n\n\n\n<p>Por fim, \u00e9 importante monitorar e ajustar o desempenho do Airflow regularmente. Isso inclui monitorar o uso de recursos, o tempo de execu\u00e7\u00e3o das tarefas e a integridade dos dados. Tamb\u00e9m \u00e9 importante ajustar as configura\u00e7\u00f5es do Airflow conforme necess\u00e1rio para otimizar o desempenho do pipeline de dados e garantir a escalabilidade do sistema.<\/p>\n\n\n\n<p>Em resumo, seguindo as pr\u00e1ticas recomendadas acima, \u00e9 poss\u00edvel implementar uma solu\u00e7\u00e3o escal\u00e1vel e eficiente de orquestra\u00e7\u00e3o de pipelines de dados com o Airflow. Isso permite que as empresas gerenciem seus fluxos de trabalho de dados de forma mais eficiente e eficaz, garantindo a qualidade e integridade dos dados em todo o processo.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><strong>Estude Data Science com a Awari<\/strong><\/h2>\n\n\n\n<p>Esperamos que este post de blog tenha sido \u00fatil para voc\u00ea compreender melhor as funcionalidades e possibilidades do Airflow para orquestra\u00e7\u00e3o de pipelines de dados em seus projetos de data science. O Airflow \u00e9 uma ferramenta poderosa e flex\u00edvel, que pode ajudar a automatizar e agilizar muitos processos em um pipeline de dados.<\/p>\n\n\n\n<p>Se voc\u00ea deseja aprimorar suas habilidades em data science e aprender a utilizar o Airflow em seus projetos, recomendamos que conhe\u00e7a os cursos de Ci\u00eancia de Dados da Awari. Nossos cursos s\u00e3o projetados para preparar os alunos para o mercado de trabalho, com uma abordagem pr\u00e1tica e orienta\u00e7\u00e3o individual de mentores experientes. Voc\u00ea ter\u00e1 a oportunidade de aprender com aulas ao vivo e pr\u00e1ticas em projetos reais, al\u00e9m de ter acesso a uma comunidade ativa e suporte cont\u00ednuo.<\/p>\n\n\n\n<p><br>N\u00e3o perca a oportunidade de aprimorar suas habilidades em data science e dar um impulso na sua carreira. Visite nosso site para saber mais sobre nossos cursos e entre em contato conosco para saber como podemos ajud\u00e1-lo a alcan\u00e7ar seus objetivos em data science. Estamos animados para ajud\u00e1-lo a alcan\u00e7ar seu potencial e prosperar em um mundo de dados em constante mudan\u00e7a. <a href=\"https:\/\/fluency.io\/br\/blog\/trilha-de-ciencia-de-dados\/?utm_source=blog&amp;utm_medium=link&amp;utm_campaign=trilha-de-ciencia-de-dados\" target=\"_blank\" rel=\"noreferrer noopener\">Clique aqui<\/a>!<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Nos dias de hoje, a coleta, processamento e an\u00e1lise de dados se tornou uma atividade vital para muitas organiza\u00e7\u00f5es. Como resultado, o gerenciamento eficiente de pipelines de dados se tornou uma preocupa\u00e7\u00e3o importante para a maioria das equipes de Data Science. Para lidar com essa necessidade, muitas organiza\u00e7\u00f5es adotam ferramentas de orquestra\u00e7\u00e3o de fluxo de [&hellip;]<\/p>\n","protected":false},"author":9,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":[186],"meta":{"inline_featured_image":false,"footnotes":""},"categories":[229],"tags":[],"trilha":[],"class_list":["post-118378","post","type-post","status-publish","format-standard","hentry","category-skills","format-artigos"],"acf":[],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v26.6 - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>Airflow para Data Science: como orquestrar e agendar tarefas em um ambiente de Big Data - Fluency.io Brasil<\/title>\n<meta name=\"description\" content=\"Nos dias de hoje, a coleta, processamento e an\u00e1lise de dados se tornou uma atividade vital para muitas organiza\u00e7\u00f5es. Como resultado, o gerenciamento eficie...\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/homolog.fluency.io\/br\/blog\/airflow-data-science\/\" \/>\n<meta property=\"og:locale\" content=\"pt_BR\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Airflow para Data Science: como orquestrar e agendar tarefas em um ambiente de Big Data - Fluency.io Brasil\" \/>\n<meta property=\"og:description\" content=\"Nos dias de hoje, a coleta, processamento e an\u00e1lise de dados se tornou uma atividade vital para muitas organiza\u00e7\u00f5es. Como resultado, o gerenciamento eficie...\" \/>\n<meta property=\"og:url\" content=\"https:\/\/homolog.fluency.io\/br\/blog\/airflow-data-science\/\" \/>\n<meta property=\"og:site_name\" content=\"Fluency.io Brasil\" \/>\n<meta property=\"article:published_time\" content=\"2023-02-16T13:00:32+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2023-07-26T17:11:57+00:00\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Escrito por\" \/>\n\t<meta name=\"twitter:data1\" content=\"kaue\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. tempo de leitura\" \/>\n\t<meta name=\"twitter:data2\" content=\"10 minutos\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"WebPage\",\"@id\":\"https:\/\/homolog.fluency.io\/br\/blog\/airflow-data-science\/\",\"url\":\"https:\/\/homolog.fluency.io\/br\/blog\/airflow-data-science\/\",\"name\":\"Airflow para Data Science: como orquestrar e agendar tarefas em um ambiente de Big Data - Fluency.io Brasil\",\"isPartOf\":{\"@id\":\"https:\/\/fluency.io\/br\/#website\"},\"datePublished\":\"2023-02-16T13:00:32+00:00\",\"dateModified\":\"2023-07-26T17:11:57+00:00\",\"author\":{\"@id\":\"https:\/\/fluency.io\/br\/#\/schema\/person\/7b3b2b50ba17b7f2ad0cce0a40bfa00a\"},\"description\":\"Nos dias de hoje, a coleta, processamento e an\u00e1lise de dados se tornou uma atividade vital para muitas organiza\u00e7\u00f5es. Como resultado, o gerenciamento eficie...\",\"breadcrumb\":{\"@id\":\"https:\/\/homolog.fluency.io\/br\/blog\/airflow-data-science\/#breadcrumb\"},\"inLanguage\":\"pt-BR\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/homolog.fluency.io\/br\/blog\/airflow-data-science\/\"]}]},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/homolog.fluency.io\/br\/blog\/airflow-data-science\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"In\u00edcio\",\"item\":\"https:\/\/homolog.fluency.io\/br\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Airflow para Data Science: como orquestrar e agendar tarefas em um ambiente de Big Data\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/fluency.io\/br\/#website\",\"url\":\"https:\/\/fluency.io\/br\/\",\"name\":\"Fluency.io Brasil\",\"description\":\"\",\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/fluency.io\/br\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"pt-BR\"},{\"@type\":\"Person\",\"@id\":\"https:\/\/fluency.io\/br\/#\/schema\/person\/7b3b2b50ba17b7f2ad0cce0a40bfa00a\",\"name\":\"kaue\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"pt-BR\",\"@id\":\"https:\/\/fluency.io\/br\/#\/schema\/person\/image\/\",\"url\":\"https:\/\/secure.gravatar.com\/avatar\/bdd3958fa53019cfd8f789c0a49a730e7ba40a1d20cb42c9ced7646285842479?s=96&d=mm&r=g\",\"contentUrl\":\"https:\/\/secure.gravatar.com\/avatar\/bdd3958fa53019cfd8f789c0a49a730e7ba40a1d20cb42c9ced7646285842479?s=96&d=mm&r=g\",\"caption\":\"kaue\"},\"url\":\"https:\/\/homolog.fluency.io\/br\/author\/kaue\/\"}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Airflow para Data Science: como orquestrar e agendar tarefas em um ambiente de Big Data - Fluency.io Brasil","description":"Nos dias de hoje, a coleta, processamento e an\u00e1lise de dados se tornou uma atividade vital para muitas organiza\u00e7\u00f5es. Como resultado, o gerenciamento eficie...","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/homolog.fluency.io\/br\/blog\/airflow-data-science\/","og_locale":"pt_BR","og_type":"article","og_title":"Airflow para Data Science: como orquestrar e agendar tarefas em um ambiente de Big Data - Fluency.io Brasil","og_description":"Nos dias de hoje, a coleta, processamento e an\u00e1lise de dados se tornou uma atividade vital para muitas organiza\u00e7\u00f5es. Como resultado, o gerenciamento eficie...","og_url":"https:\/\/homolog.fluency.io\/br\/blog\/airflow-data-science\/","og_site_name":"Fluency.io Brasil","article_published_time":"2023-02-16T13:00:32+00:00","article_modified_time":"2023-07-26T17:11:57+00:00","twitter_card":"summary_large_image","twitter_misc":{"Escrito por":"kaue","Est. tempo de leitura":"10 minutos"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"WebPage","@id":"https:\/\/homolog.fluency.io\/br\/blog\/airflow-data-science\/","url":"https:\/\/homolog.fluency.io\/br\/blog\/airflow-data-science\/","name":"Airflow para Data Science: como orquestrar e agendar tarefas em um ambiente de Big Data - Fluency.io Brasil","isPartOf":{"@id":"https:\/\/fluency.io\/br\/#website"},"datePublished":"2023-02-16T13:00:32+00:00","dateModified":"2023-07-26T17:11:57+00:00","author":{"@id":"https:\/\/fluency.io\/br\/#\/schema\/person\/7b3b2b50ba17b7f2ad0cce0a40bfa00a"},"description":"Nos dias de hoje, a coleta, processamento e an\u00e1lise de dados se tornou uma atividade vital para muitas organiza\u00e7\u00f5es. Como resultado, o gerenciamento eficie...","breadcrumb":{"@id":"https:\/\/homolog.fluency.io\/br\/blog\/airflow-data-science\/#breadcrumb"},"inLanguage":"pt-BR","potentialAction":[{"@type":"ReadAction","target":["https:\/\/homolog.fluency.io\/br\/blog\/airflow-data-science\/"]}]},{"@type":"BreadcrumbList","@id":"https:\/\/homolog.fluency.io\/br\/blog\/airflow-data-science\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"In\u00edcio","item":"https:\/\/homolog.fluency.io\/br\/"},{"@type":"ListItem","position":2,"name":"Airflow para Data Science: como orquestrar e agendar tarefas em um ambiente de Big Data"}]},{"@type":"WebSite","@id":"https:\/\/fluency.io\/br\/#website","url":"https:\/\/fluency.io\/br\/","name":"Fluency.io Brasil","description":"","potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/fluency.io\/br\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"pt-BR"},{"@type":"Person","@id":"https:\/\/fluency.io\/br\/#\/schema\/person\/7b3b2b50ba17b7f2ad0cce0a40bfa00a","name":"kaue","image":{"@type":"ImageObject","inLanguage":"pt-BR","@id":"https:\/\/fluency.io\/br\/#\/schema\/person\/image\/","url":"https:\/\/secure.gravatar.com\/avatar\/bdd3958fa53019cfd8f789c0a49a730e7ba40a1d20cb42c9ced7646285842479?s=96&d=mm&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/bdd3958fa53019cfd8f789c0a49a730e7ba40a1d20cb42c9ced7646285842479?s=96&d=mm&r=g","caption":"kaue"},"url":"https:\/\/homolog.fluency.io\/br\/author\/kaue\/"}]}},"_links":{"self":[{"href":"https:\/\/homolog.fluency.io\/br\/wp-json\/wp\/v2\/posts\/118378","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/homolog.fluency.io\/br\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/homolog.fluency.io\/br\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/homolog.fluency.io\/br\/wp-json\/wp\/v2\/users\/9"}],"replies":[{"embeddable":true,"href":"https:\/\/homolog.fluency.io\/br\/wp-json\/wp\/v2\/comments?post=118378"}],"version-history":[{"count":0,"href":"https:\/\/homolog.fluency.io\/br\/wp-json\/wp\/v2\/posts\/118378\/revisions"}],"wp:attachment":[{"href":"https:\/\/homolog.fluency.io\/br\/wp-json\/wp\/v2\/media?parent=118378"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/homolog.fluency.io\/br\/wp-json\/wp\/v2\/categories?post=118378"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/homolog.fluency.io\/br\/wp-json\/wp\/v2\/tags?post=118378"},{"taxonomy":"format","embeddable":true,"href":"https:\/\/homolog.fluency.io\/br\/wp-json\/wp\/v2\/format?post=118378"},{"taxonomy":"trilha","embeddable":true,"href":"https:\/\/homolog.fluency.io\/br\/wp-json\/wp\/v2\/trilha?post=118378"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}