Mantenha tudo organizado com as coleções
Salve e categorize o conteúdo com base nas suas preferências.
Ao criar um pipeline de dados no Cloud Data Fusion, você usa uma série de
fases, conhecidas como nós, para mover e gerenciar dados à medida que eles fluem da origem para o coletor.
Cada nó consiste em um plug-in, um módulo personalizável que amplia os recursos do Cloud Data Fusion.
Para encontrar os plug-ins na interface da Web do Cloud Data Fusion, acesse a página Studio. Para mais plug-ins, clique em Hub.
Tipos de plug-in
Os plug-ins são categorizados nas seguintes categorias:
Fontes
Transformações
Analytics
Coletores
Condições e ações
Alertas e gerenciadores de erros
Fontes
Os plug-ins de origem se conectam a bancos de dados, arquivos ou streams em tempo real de onde o pipeline lê dados. Você configura fontes para o pipeline de dados usando a interface da Web, para que não precise se preocupar com a codificação de conexões de baixo nível.
Transformações
Os plug-ins de transformação mudam os dados depois que eles são ingeridos de uma fonte. Por exemplo,
é possível clonar um registro, mudar o formato do arquivo para JSON ou usar o plug-in JavaScript
para criar uma transformação personalizada.
Analytics
Os plug-ins de análise executam agregações, como a união de dados de diferentes fontes e a execução de operações de análise e machine learning.
Coletores
Os plug-ins de coletor gravam dados em recursos, como o Cloud Storage, o BigQuery, o Spanner, bancos de dados relacionais, sistemas de arquivos e mainframes. É possível consultar os dados gravados no destino usando a interface da Web do Cloud Data Fusion ou a API REST.
Condições e ações
Use plug-ins de condição e ação para programar ações que ocorrem durante um fluxo de trabalho e não manipulam dados diretamente. Exemplo:
Use o plug-in do banco de dados para programar a execução de um comando do banco de dados no final do pipeline.
Use o plug-in Mover arquivos para acionar uma ação que move arquivos no
Cloud Storage.
Alertas e gerenciadores de erros
Quando as fases encontram valores nulos, erros lógicos ou outras fontes de erros,
é possível usar um plug-in de gerenciador de erros para detectar erros. Use esses plug-ins para
encontrar erros na saída após um plug-in de transformação ou análise. É possível
gravar os erros em um banco de dados para análise.
[[["Fácil de entender","easyToUnderstand","thumb-up"],["Meu problema foi resolvido","solvedMyProblem","thumb-up"],["Outro","otherUp","thumb-up"]],[["Difícil de entender","hardToUnderstand","thumb-down"],["Informações incorretas ou exemplo de código","incorrectInformationOrSampleCode","thumb-down"],["Não contém as informações/amostras de que eu preciso","missingTheInformationSamplesINeed","thumb-down"],["Problema na tradução","translationIssue","thumb-down"],["Outro","otherDown","thumb-down"]],["Última atualização 2025-08-12 UTC."],[[["\u003cp\u003eCloud Data Fusion uses plugins, which are customizable modules, to extend its capabilities in managing and moving data through a pipeline.\u003c/p\u003e\n"],["\u003cp\u003ePlugins in Cloud Data Fusion are categorized into types such as Sources, Transformations, Analytics, Sinks, Conditions and Actions, and Error Handlers and Alerts, each serving a distinct purpose in data processing.\u003c/p\u003e\n"],["\u003cp\u003eSource plugins connect to various data origins, Transformation plugins alter ingested data, Analytics plugins perform aggregations and analysis, and Sink plugins write processed data to its destination.\u003c/p\u003e\n"],["\u003cp\u003eCondition and action plugins allow scheduling of non-data manipulation actions within workflows, while error handler plugins catch and manage errors that occur within the pipeline, allowing for more detailed analysis of them.\u003c/p\u003e\n"]]],[],null,["# Plugins overview\n\n| **Tip:** Explore the [Cloud Data Fusion plugins](/data-fusion/plugins).\n\nWhen you create a data pipeline in Cloud Data Fusion, you use a series of\nstages, known as nodes, to move and manage data as it flows from source to sink.\nEach node consists of a plugin, a customizable module that extends the\ncapabilities of Cloud Data Fusion.\n\nYou can find the plugins in Cloud Data Fusion web interface by going to\nthe **Studio** page. For more plugins, click **Hub**.\n\nPlugin types\n------------\n\nPlugins are categorized into the following categories:\n\n- Sources\n- Transformations\n- Analytics\n- Sinks\n- Conditions and actions\n- Error handlers and alerts\n\n### Sources\n\nSource plugins connect to databases, files, or real-time streams from which your\npipeline reads data. You set up sources for your data pipeline using the web\ninterface, so you don't have to worry about coding low-level connections.\n\n### Transformations\n\nTransform plugins change data after it's ingested from a source. For example,\nyou can clone a record, change the file format to JSON, or use the Javascript\nplugin to create a custom transformation.\n\n### Analytics\n\nAnalytics plugins perform aggregations, such as joining data from different\nsources and running analytics and machine learning operations.\n\n### Sinks\n\nSink plugins write data to resources, such as Cloud Storage,\nBigQuery, Spanner, relational databases, file systems,\nand mainframes. You can query the data that gets written to the sink using the\nCloud Data Fusion web interface or REST API.\n\n### Conditions and actions\n\nUse condition and action plugins to schedule actions that take place during a\nworkflow that don't directly manipulate data in the workflow. For example:\n\n- Use the Database plugin to schedule a database command to run at the end of your pipeline.\n- Use the File Move plugin to trigger an action that moves files within Cloud Storage.\n\n### Error handlers and alerts\n\nWhen stages encounter null values, logical errors, or other sources of errors,\nyou can use an error handler plugin to catch errors. Use these plugins to\nfind errors in the output after a transform or analytics plugin. You can\nwrite the errors to a database for analysis.\n\nWhat's next\n-----------\n\n- [Explore the plugins](/data-fusion/plugins).\n- [Create a data pipeline](/data-fusion/docs/create-data-pipeline) with the plugins."]]