Cloud Data Loss Prevention (Cloud DLP) kini menjadi bagian dari Sensitive Data Protection. Nama API tetap sama: Cloud Data Loss Prevention API (DLP API). Untuk informasi tentang layanan yang membentuk Perlindungan Data Sensitif, lihat Ringkasan Perlindungan Data Sensitif.
Mengukur risiko identifikasi ulang dan pengungkapan
Tetap teratur dengan koleksi
Simpan dan kategorikan konten berdasarkan preferensi Anda.
Analisis risiko identifikasi ulang, atau hanya analisis risiko, adalah proses
menganalisis data sensitif untuk menemukan properti yang mungkin meningkatkan risiko
subjek yang sedang diidentifikasi. Anda dapat menggunakan metode analisis risiko sebelum
de-identifikasi untuk membantu menentukan strategi de-identifikasi yang efektif atau
setelah de-identifikasi untuk memantau perubahan atau pencilan.
Sensitive Data Protection dapat menghitung empat metrik risiko identifikasi ulang: k-anonymity,
l-diversity, k-map, dan δ-presence. Jika Anda tidak terbiasa dengan analisis risiko atau metrik ini, lihat topik konsep analisis risiko sebelum melanjutkan.
Bagian ini memberikan ringkasan cara menggunakan Perlindungan Data Sensitif untuk analisis risiko data terstruktur menggunakan salah satu metrik ini, serta topik terkait lainnya.
Menghitung risiko identifikasi ulang
Sensitive Data Protection dapat menganalisis data terstruktur Anda yang disimpan dalam tabel BigQuery dan menghitung metrik risiko identifikasi ulang berikut. Klik link untuk metrik yang ingin Anda hitung untuk mempelajari lebih lanjut.
Properti set data yang menunjukkan pengidentifikasian ulang record-nya. Set data bersifat k-anonim jika pengidentifikasi semu untuk setiap orang dalam set data identik dengan setidaknya k – 1 orang lain yang juga ada dalam set data tersebut.
Perluasan k-anonymity yang juga mengukur keragaman nilai sensitif untuk setiap kolom tempat nilai tersebut muncul. Sebuah set data memiliki l-diversity jika, untuk setiap set baris dengan pengidentifikasi semu yang identik, terdapat setidaknya l nilai berbeda untuk setiap atribut sensitif.
Menghitung risiko identifikasi ulang dengan membandingkan subjek dalam set data yang di-anonimkan tertentu dengan set data identifikasi ulang—atau "serangan"—yang lebih besar.
Memperkirakan probabilitas bahwa pengguna tertentu dalam populasi yang lebih besar ada dalam set data. Hal ini digunakan saat keanggotaan dalam set data itu sendiri merupakan informasi sensitif.
Menghitung statistik lainnya
Sensitive Data Protection juga dapat menghitung statistik numerik dan kategoris untuk data yang disimpan dalam tabel BigQuery menggunakan resource DlpJob yang sama dengan API analisis risiko.
Anda dapat memvisualisasikan metrik risiko yang dihitung oleh Sensitive Data Protection langsung di konsol menggunakan Sensitive Data Protection (k-anonimitas atau l-diversitas), atau menggunakan produkGoogle Cloud lainnya. Google Cloud
Setelah menghitung nilai k-anonimitas untuk set data menggunakan Sensitive Data Protection, Anda dapat memvisualisasikan hasilnya di Looker Studio. Dengan melakukannya, Anda juga akan dapat lebih memahami risiko identifikasi ulang dan membantu mengevaluasi pertukaran utilitas yang mungkin Anda lakukan jika Anda menyamarkan atau menganonimkan data.
[[["Mudah dipahami","easyToUnderstand","thumb-up"],["Memecahkan masalah saya","solvedMyProblem","thumb-up"],["Lainnya","otherUp","thumb-up"]],[["Sulit dipahami","hardToUnderstand","thumb-down"],["Informasi atau kode contoh salah","incorrectInformationOrSampleCode","thumb-down"],["Informasi/contoh yang saya butuhkan tidak ada","missingTheInformationSamplesINeed","thumb-down"],["Masalah terjemahan","translationIssue","thumb-down"],["Lainnya","otherDown","thumb-down"]],["Terakhir diperbarui pada 2025-08-19 UTC."],[],[],null,["# Measuring re-identification and disclosure risk\n\n*Re-identification risk analysis* , or just *risk analysis*, is the process of\nanalyzing sensitive data to find properties that might increase the risk of\nsubjects being identified. You can use risk analysis methods before\nde-identification to help determine an effective de-identification strategy or\nafter de-identification to monitor for any changes or outliers.\n\nSensitive Data Protection can compute four re-identification risk metrics: *k* -anonymity,\n*l* -diversity, *k* -map, and *δ* -presence. If you're not familiar with risk\nanalysis or these metrics, see the [risk analysis concept\ntopic](/sensitive-data-protection/docs/concepts-risk-analysis) before continuing on.\n\nThis section provides overviews of how to use Sensitive Data Protection for risk\nanalysis of structured data using any of these metrics, plus other related\ntopics.\n\nCalculate re-identification risk\n--------------------------------\n\nSensitive Data Protection can analyze your structured data stored in\nBigQuery tables and compute the following re-identification risk\nmetrics. Click the link for the metric you want to calculate to learn more.\n\nCalculate other statistics\n--------------------------\n\nSensitive Data Protection can also compute numerical and categorical\nstatistics for data stored in BigQuery tables using the same\n[`DlpJob`](/sensitive-data-protection/docs/reference/rest/v2/projects.dlpJobs) resource as the\nrisk analysis APIs.\n\nFor more information, see\n[Computing numerical and categorical statistics](/sensitive-data-protection/docs/compute-stats).\n\nVisualize re-identification risk\n--------------------------------\n\nYou can visualize the risk metrics that Sensitive Data Protection calculates\ndirectly in the Google Cloud console using Sensitive Data Protection\n([*k*-anonymity](/sensitive-data-protection/docs/compute-k-anonymity#viewing-results) or\n[*l*-diversity](/sensitive-data-protection/docs/compute-l-diversity#viewing-results)), or using other\nGoogle Cloud products."]]