大量データをCSVファイルでエクスポートする方法

Yuki21
Tera Expert

お世話になっております。
テーブルに格納されているレコードを全件CSVファイルでエクスポートするための手段について質問させてください。

①リスト表示後、「列のオプション」を右クリックし、エクスポート>CSVを選択
②https://<インスタンス名>.service-now.com/<テーブル名>_list.do?CSV

上記2つ以外の方法はありますでしょうか?
上記の方法ですと処理時間がタイムアウトしないようなレコード数のデータのみエクスポート可能な認識です。
タイムアウトするような大量レコードのエクスポートはServiceNowが推奨していないことは認識しておりますが、
テーブルデータバックアップの要件として挙がっており、対策をご存知であればご教示いただければと思います。

1 ACCEPTED SOLUTION

iwai
Giga Sage

バックアップ目的であれば、CSVファイルよりXMLファイルで保存するべきです。
復元するときXMLファイルインポートなら完全に元のレコードに戻ります。
復元するときに取り込める最大数の制限を受けるので、巨大なファイルを復元できません。
そのため、大量データのExport方法は、1万件程度に分割してDownloadします。

補足、バックアップであればReferenceしているテーブル(ユーザー関連など)もすべてバックアップをしておきましょう。(Reference先のSYSIDを正しく参照できるようにXMLファイルで関連テーブルすべてをバックアップする)

単純に今回だけデータを手動でバックアップしたい要件であれば、下記のようなScriptで分割ダウンロードのURLを作成できます。Script Backgroundで実行してみてください。インスタンス名など各種パラメーターは環境に合わせて変更してください。

var myInstance = 'myInstance'; // インスタンス名
var myTable = 'incident'; // エクスポートテーブル名
var myQuery = ''; // エクスポートQuery 必要な場合に記載
var myFileType = 'CSV'; // エクスポート形式 CSV,XLSX,UNL(UNL=XML形式でダウンロード)
var setLimit = 10000; // エクスポート分割行数
var sysid = '';
var exportUrl = [];
var gr = new GlideRecord(myTable);
gr.initialize();
var fields = gr.getFields();
var myField = [];
var num;

exportUrl.push('https://' + myInstance + '.service-now.com/' + myTable + '_list.do' +
    '?sysparm_query=' +
    (!!myQuery ? encodeURIComponent(myQuery) + '%5EORDERBYsys_id' : 'ORDERBYsys_id') +
    '&sysparm_record_count=' + setLimit +
    '&sysparm_default_export_fields=all&' + myFileType);
num = setLimit - 1;
do {
    gr = new GlideRecord(myTable);
    gr.initialize();
    if(myQuery) gr.addEncodedQuery(myQuery);
    gr.orderBy('sys_id');
    gr.chooseWindow(num, num + 2);
    gr.query();
    if (gr.next()) {
        sysid = '' + gr.getValue('sys_id');
        exportUrl.push('https://' + myInstance + '.service-now.com/' + myTable + '_list.do' +
            '?sysparm_query=sys_id%3E' + sysid +
            (!!myQuery ? '%5E' + encodeURIComponent(myQuery) : '') +
            '%5EORDERBYsys_id' +
            '&sysparm_record_count=' + setLimit +
            '&sysparm_default_export_fields=all&' + myFileType);
    }
    num += setLimit;
} while (gr.next());
for (num = 0; num < exportUrl.length; num++) {
    gs.info(exportUrl[num]);
}

 

定期的に自動バックアップをしたいなら、バックアップするサーバー側にPowershellやPythonなどで、定期的に分割ダウンロードするScriptを組むと良いです。もし要望があれば投稿します。

View solution in original post

11 REPLIES 11

作成日と自動でExcelで削除も自動化するとしたら、何かのストレージサーバーに退避することになると想定しました。誰かが何かの操作をしたり、誰かのパソコンにExcelファイルをエクスポートして保存する要件ではない。

 

ちょっと要件とは微妙に違うかもしれませんが、

ReportとしてExcelを定期的にメール送信する機能があります。少量ならこれでも良いかもしれません。

レポートのメールをスケジュールする (servicenow.com)

 

その後は自動データ削除はFlowDesignerで定期実行してみてはどうでしょうか。

Flow Designer のトリガータイプ (servicenow.com)

複数のレコードを削除ステップ (Delete Multiple Records step) (servicenow.com)

 

全く別の方法として、

外部サーバーから、定期的に情報取得して、定期的にデータ削除する方法です。

簡単なバッチ処理で作れます。

ServiceNowには Excelのダウンロードが始まるURLを作成できます。
このURLを使って定期的にダウンロードするバッチ処理を作る。
CURLという古くからある バッチ処理のモジュールを使っても良いかもしれません。
複合データタイプへのレコードのエクスポートと変換 (servicenow.com)
curlを使ってベーシック認証→ユーザーログイン→ファイルダウンロード #curl - Qiita

【Windows】Windows 11でバッチファイルをタスクスケジューラーに追加する手順 | テックにゃんこのITブログ (technyanko.com)

晃敏池
Tera Contributor

ご回答ありがとうございます。

作成してみます!