Pointblank はデータ品質に対して異なるアプローチを取っています。それは退屈な技術的な作業である必要はありません。むしろ、チームメンバー間の明確なコミュニケーションに焦点を当てたプロセスになりえます。他の検証ライブラリがエラーの検出のみに焦点を当てているのに対し、Pointblank は問題の発見と洞察の共有の両方で優れています。美しくカスタマイズ可能なレポートは、検証結果をステークホルダーとの会話に変え、データ品質の問題をチーム全体にとって即座に理解でき、行動可能なものにします。
数時間ではなく数分で開始。 Pointblank の AI 驱動型 DraftValidation 機能は、データを分析し、自動的に知的な検証ルールを提案します。空の検証スクリプトを見つめて、どこから始めるか悩む必要はありません。Pointblank があなたのデータ品質の旅をキックスタートし、最も重要なことに集中できるようにします。
データ品質の発見を素早く伝える必要があるデータサイエンティスト、堅牢なパイプラインを構築するデータエンジニア、ビジネスステークホルダーにデータ品質結果を発表するアナリストのいずれであっても、Pointblank はデータ品質を後からの思いつきから競争上の優位性に変えるのに役立ちます。
DraftValidation クラスは LLM を使用してデータを分析し、知的な提案を含む完全な検証プランを生成します。これにより、データ検証を素早く開始したり、新しいプロジェクトをジャンプスタートしたりできます。
import pointblank as pb
# データを読み込み
data = pb.load_dataset("game_revenue") # サンプルデータセット
# DraftValidation を使用して検証プランを生成
pb.DraftValidation(data=data, model="anthropic:claude-opus-4-6")出力は、データに基づいた知的な提案を含む完全な検証プランです:
import pointblank as pb
# 検証プラン
validation = (
pb.Validate(
data=data,
label="Draft Validation",
thresholds=pb.Thresholds(warning=0.10, error=0.25, critical=0.35)
)
.col_vals_in_set(columns="item_type", set=["iap", "ad"])
.col_vals_gt(columns="item_revenue", value=0)
.col_vals_between(columns="session_duration", left=3.2, right=41.0)
.col_count_match(count=11)
.row_count_match(count=2000)
.rows_distinct()
.interrogate()
)
validation必要に応じて生成された検証プランをコピー、ペースト、カスタマイズしてください。
Pointblank のチェーン可能な API は検証をシンプルかつ読みやすくします。同じパターンが常に適用されます:(1) Validate から始め、(2) 検証ステップを追加し、(3) interrogate() で終了します。
import pointblank as pb
validation = (
pb.Validate(data=pb.load_dataset(dataset="small_table"))
.col_vals_gt(columns="d", value=100) # 値 > 100 を検証
.col_vals_le(columns="c", value=5) # 値 <= 5 を検証
.col_exists(columns=["date", "date_time"]) # 列の存在を確認
.interrogate() # 実行して結果を収集
)
# REPLで検証レポートを取得:
validation.get_tabular_report().show()
# ノートブックでは単純に:
validation質問された validation オブジェクトを持っている場合、次のような様々なメソッドを使用して洞察を抽出できます:
- 個別のステップの詳細レポートを取得して何が間違っていたかを確認する
- 検証結果に基づいてテーブルをフィルタリングする
- デバッグのために問題のあるデータを抽出する
- 現在のスタックと連携: Polars、Pandas、DuckDB、MySQL、PostgreSQL、SQLite、Parquet、PySpark、Snowflake などとシームレスに統合!
- 美しいインタラクティブレポート: 問題を強調し、データ品質の伝達を支援する明確な検証結果
- 構成可能な検証パイプライン: 検証ステップを完全なデータ品質ワークフローにチェーン化
- しきい値ベースのアラート: カスタムアクションで「警告」「エラー」「重大」しきい値を設定
- 実用的な出力: 結果を使用してテーブルをフィルタリング、問題のあるデータを抽出、またはダウンストリームプロセスをトリガー
import pointblank as pb
import polars as pl
# データをロード
sales_data = pl.read_csv("sales_data.csv")
# 包括的な検証を作成
validation = (
pb.Validate(
data=sales_data,
tbl_name="sales_data", # レポート用テーブル名
label="実世界の例", # レポートに表示される検証ラベル
thresholds=(0.01, 0.02, 0.05), # 警告、エラー、重大問題のしきい値を設定
actions=pb.Actions( # しきい値超過に対するアクションを定義
critical="ステップ {step} で重大なデータ品質問題が見つかりました ({time})。"
),
final_actions=pb.FinalActions( # 検証全体の最終アクションを定義
pb.send_slack_notification(
webhook_url="https://hooks.slack.com/services/your/webhook/url"
)
),
brief=True, # 各ステップに自動生成された概要を追加
lang="ja",
)
.col_vals_between( # 精度で数値範囲をチェック
columns=["price", "quantity"],
left=0, right=1000
)
.col_vals_not_null( # '_id'で終わる列にnull値がないことを確認
columns=pb.ends_with("_id")
)
.col_vals_regex( # 正規表現でパターンを検証
columns="email",
pattern="^[a-zA-Z0-9._%+-]+@[a-zA-Z0-9.-]+\\.[a-zA-Z]{2,}$"
)
.col_vals_in_set( # カテゴリ値をチェック
columns="status",
set=["pending", "shipped", "delivered", "returned"]
)
.conjointly( # 複数の条件を組み合わせる
lambda df: pb.expr_col("revenue") == pb.expr_col("price") * pb.expr_col("quantity"),
lambda df: pb.expr_col("tax") >= pb.expr_col("revenue") * 0.05
)
.interrogate()
)ステップ 7 で重大なデータ品質問題が見つかりました (2025-04-16 15:03:04.685612+00:00)。
# チームと共有できるHTMLレポートを取得
validation.get_tabular_report().show("browser")# 特定のステップの失敗レコードレポートを取得
validation.get_step_report(i=3).show("browser") # ステップ3の失敗レコードを取得ポータブルでバージョン管理された検証ワークフローが必要なチームのために、Pointblank は YAML 設定ファイルをサポートしています。これにより、異なる環境やチームメンバー間で検証ロジックを簡単に共有でき、全員が同じページにいることを確保できます。
validation.yaml
validate:
data: small_table
tbl_name: "small_table"
label: "スタートガイド検証"
steps:
- col_vals_gt:
columns: "d"
value: 100
- col_vals_le:
columns: "c"
value: 5
- col_exists:
columns: ["date", "date_time"]YAML 検証の実行
import pointblank as pb
# YAML設定から検証を実行
validation = pb.yaml_interrogate("validation.yaml")
# 他の検証と同様に結果を取得
validation.get_tabular_report().show()このアプローチは以下に最適です:
- CI/CD パイプライン: コードと一緒に検証ルールを保存
- チーム協力: 読みやすい形式で検証ロジックを共有
- 環境一貫性: 開発、ステージング、本番で同じ検証を使用
- ドキュメント: YAML ファイルがデータ品質要件の生きたドキュメントとして機能
Pointblank には、pb という強力な CLI ユーティリティが含まれており、コマンドラインから直接データ検証ワークフローを実行できます。CI/CD パイプライン、スケジュールされたデータ品質チェック、または迅速な検証タスクに最適です。
データを探索する
# データの簡単なプレビューを取得
pb preview small_table
# GitHub URL からのデータプレビュー
pb preview "https://github.com/user/repo/blob/main/data.csv"
# Parquet ファイルの欠損値をチェック
pb missing data.parquet
# データベース接続から列の要約を生成
pb scan "duckdb:///data/sales.ddb::customers"基本的な検証を実行
# YAML設定ファイルから検証を実行
pb run validation.yaml
# Pythonファイルから検証を実行
pb run validation.py
# 重複行をチェック
pb validate small_table --check rows-distinct
# GitHub から直接データを検証
pb validate "https://github.com/user/repo/blob/main/sales.csv" --check col-vals-not-null --column customer_id
# Parquet データセットで null 値がないことを確認
pb validate "data/*.parquet" --check col-vals-not-null --column a
# デバッグのため失敗データを抽出
pb validate small_table --check col-vals-gt --column a --value 5 --show-extractCI/CD との統合
# 一行検証で自動化のため終了コードを使用(0 = 成功、1 = 失敗)
pb validate small_table --check rows-distinct --exit-code
# 終了コードで検証ワークフローを実行
pb run validation.yaml --exit-code
pb run validation.py --exit-codeバリデーションワークフロー用のテストデータが必要ですか?generate_dataset() 関数は、スキーマ定義に基づいてリアルでロケール対応の合成データを作成します。本番データなしでパイプラインを開発したり、再現可能なシナリオで CI/CD テストを実行したり、本番データが利用可能になる前にワークフローのプロトタイプを作成するのにとても便利です。
import pointblank as pb
# フィールド制約付きのスキーマを定義
schema = pb.Schema(
user_id=pb.int_field(min_val=1, unique=True),
name=pb.string_field(preset="name"),
email=pb.string_field(preset="email"),
age=pb.int_field(min_val=18, max_val=100),
status=pb.string_field(allowed=["active", "pending", "inactive"]),
)
# 10行のリアルなテストデータを生成
data = pb.generate_dataset(schema, n=10, seed=23)
pb.preview(data)ジェネレーターは以下の機能で高度なデータ生成をサポートしています:
- プリセットによるリアルなデータ:
"name"、"email"、"address"、"phone"などの組み込みプリセットを使用 - ユーザーエージェント文字列: 17のブラウザカテゴリから42,000以上のユニークな組み合わせで、非常に多様でリアルなブラウザユーザーエージェント文字列を生成
- 100カ国のサポート: ロケール固有のデータを生成(例:
country="DE"でドイツの住所) - フィールド制約: 範囲、パターン、一意性、許可値を制御
- 複数の出力形式: デフォルトで Polars DataFrame を返しますが、Pandas(
output="pandas")や辞書(output="dict")もサポート
- 完全な検証ワークフロー: データアクセスから検証、レポート作成まで単一のパイプラインで
- コラボレーション向けに構築: 美しいインタラクティブレポートを通じて同僚と結果を共有
- 実用的な出力: 必要なものを正確に取得:カウント、抽出、要約、または完全なレポート
- 柔軟な展開: ノートブック、スクリプト、またはデータパイプラインで使用
- 合成データ生成: 30以上のプリセット、ユーザーエージェント文字列、ロケール対応のフォーマット、100カ国のサポートでリアルなテストデータを作成
- カスタマイズ可能: 特定のニーズに合わせて検証ステップとレポートを調整
- 国際化: レポートは英語、スペイン語、フランス語、ドイツ語を含む 40 の言語で生成可能
ドキュメントサイトで以下をご覧ください:
あなたのご意見をお待ちしています!以下の方法でつながりましょう:
- GitHub Issues - バグや機能リクエスト用
- Discord サーバー - ディスカッションとサポート
- 貢献ガイドライン - Pointblank の改善に協力したい場合
pip を使用して Pointblank をインストールできます:
pip install pointblankConda-Forge からもインストールできます:
conda install conda-forge::pointblankPolars または Pandas がインストールされていない場合は、Pointblank を使用するためにどちらかをインストールする必要があります。
pip install "pointblank[pl]" # PolarsとPointblankをインストール
pip install "pointblank[pd]" # PandasとPointblankをインストールDuckDB、MySQL、PostgreSQL、または SQLite で Pointblank を使用するには、適切なバックエンドで Ibis をインストールします:
pip install "pointblank[duckdb]" # Ibis + DuckDBとPointblankをインストール
pip install "pointblank[mysql]" # Ibis + MySQLとPointblankをインストール
pip install "pointblank[postgres]" # Ibis + PostgreSQLとPointblankをインストール
pip install "pointblank[sqlite]" # Ibis + SQLiteとPointblankをインストールPointblank は、Polars および Pandas DataFrame の操作にNarwhalsを使用し、データベースとファイル形式のサポートにIbisと統合しています。このアーキテクチャは、さまざまなソースからの表形式データを検証するための一貫した API を提供します。
Pointblank の継続的な開発に貢献する方法はたくさんあります。いくつかの貢献は簡単かもしれません(タイプミスの修正、ドキュメントの改善、機能リクエストの問題提出など)が、他の貢献はより多くの時間と注意が必要かもしれません(質問への回答やコード変更の PR 提出など)。あなたが提供できるどんな助けも非常に感謝されることを知ってください!
始め方については貢献ガイドラインをご覧ください。
私たちは以下の機能で Pointblank を積極的に改善しています:
- 包括的なデータ品質チェックのための追加検証メソッド
- 高度なログ機能
- しきい値超過のためのメッセージングアクション(Slack、メール)
- LLM 駆動の検証提案とデータディクショナリ生成
- パイプラインの移植性のための JSON/YAML 設定
- コマンドラインからの検証のための CLI ユーティリティ
- 拡張バックエンドサポートと認証
- 高品質なドキュメントと例
機能や改善のアイデアがある場合は、遠慮なく私たちと共有してください!私たちは Pointblank を改善する方法を常に探しています。
Pointblank プロジェクトは貢献者行動規範とともに公開されていることにご注意ください。
このプロジェクトに参加することにより、あなたはその条件に従うことに同意したことになります。
Pointblank は MIT ライセンスの下でライセンスされています。
© Posit Software, PBC.
このプロジェクトは主に Rich Iannoneによって維持されています。他の著者が時折 これらのタスクの一部を支援することがあります。





