- Mark as New
- Bookmark
- Subscribe
- Mute
- Subscribe to RSS Feed
- Permalink
- Report Inappropriate Content
03-07-2022 12:10 AM
お世話になっております。
テーブルに格納されているレコードを全件CSVファイルでエクスポートするための手段について質問させてください。
①リスト表示後、「列のオプション」を右クリックし、エクスポート>CSVを選択
②https://<インスタンス名>.service-now.com/<テーブル名>_list.do?CSV
上記2つ以外の方法はありますでしょうか?
上記の方法ですと処理時間がタイムアウトしないようなレコード数のデータのみエクスポート可能な認識です。
タイムアウトするような大量レコードのエクスポートはServiceNowが推奨していないことは認識しておりますが、
テーブルデータバックアップの要件として挙がっており、対策をご存知であればご教示いただければと思います。
Solved! Go to Solution.
- Mark as New
- Bookmark
- Subscribe
- Mute
- Subscribe to RSS Feed
- Permalink
- Report Inappropriate Content
03-07-2022 05:48 AM
バックアップ目的であれば、CSVファイルよりXMLファイルで保存するべきです。
復元するときXMLファイルインポートなら完全に元のレコードに戻ります。
復元するときに取り込める最大数の制限を受けるので、巨大なファイルを復元できません。
そのため、大量データのExport方法は、1万件程度に分割してDownloadします。
補足、バックアップであればReferenceしているテーブル(ユーザー関連など)もすべてバックアップをしておきましょう。(Reference先のSYSIDを正しく参照できるようにXMLファイルで関連テーブルすべてをバックアップする)
単純に今回だけデータを手動でバックアップしたい要件であれば、下記のようなScriptで分割ダウンロードのURLを作成できます。Script Backgroundで実行してみてください。インスタンス名など各種パラメーターは環境に合わせて変更してください。
var myInstance = 'myInstance'; // インスタンス名
var myTable = 'incident'; // エクスポートテーブル名
var myQuery = ''; // エクスポートQuery 必要な場合に記載
var myFileType = 'CSV'; // エクスポート形式 CSV,XLSX,UNL(UNL=XML形式でダウンロード)
var setLimit = 10000; // エクスポート分割行数
var sysid = '';
var exportUrl = [];
var gr = new GlideRecord(myTable);
gr.initialize();
var fields = gr.getFields();
var myField = [];
var num;
exportUrl.push('https://' + myInstance + '.service-now.com/' + myTable + '_list.do' +
'?sysparm_query=' +
(!!myQuery ? encodeURIComponent(myQuery) + '%5EORDERBYsys_id' : 'ORDERBYsys_id') +
'&sysparm_record_count=' + setLimit +
'&sysparm_default_export_fields=all&' + myFileType);
num = setLimit - 1;
do {
gr = new GlideRecord(myTable);
gr.initialize();
if(myQuery) gr.addEncodedQuery(myQuery);
gr.orderBy('sys_id');
gr.chooseWindow(num, num + 2);
gr.query();
if (gr.next()) {
sysid = '' + gr.getValue('sys_id');
exportUrl.push('https://' + myInstance + '.service-now.com/' + myTable + '_list.do' +
'?sysparm_query=sys_id%3E' + sysid +
(!!myQuery ? '%5E' + encodeURIComponent(myQuery) : '') +
'%5EORDERBYsys_id' +
'&sysparm_record_count=' + setLimit +
'&sysparm_default_export_fields=all&' + myFileType);
}
num += setLimit;
} while (gr.next());
for (num = 0; num < exportUrl.length; num++) {
gs.info(exportUrl[num]);
}
定期的に自動バックアップをしたいなら、バックアップするサーバー側にPowershellやPythonなどで、定期的に分割ダウンロードするScriptを組むと良いです。もし要望があれば投稿します。
- Mark as New
- Bookmark
- Subscribe
- Mute
- Subscribe to RSS Feed
- Permalink
- Report Inappropriate Content
08-15-2024 06:18 AM
作成日と自動でExcelで削除も自動化するとしたら、何かのストレージサーバーに退避することになると想定しました。誰かが何かの操作をしたり、誰かのパソコンにExcelファイルをエクスポートして保存する要件ではない。
ちょっと要件とは微妙に違うかもしれませんが、
ReportとしてExcelを定期的にメール送信する機能があります。少量ならこれでも良いかもしれません。
レポートのメールをスケジュールする (servicenow.com)
その後は自動データ削除はFlowDesignerで定期実行してみてはどうでしょうか。
Flow Designer のトリガータイプ (servicenow.com)
複数のレコードを削除ステップ (Delete Multiple Records step) (servicenow.com)
全く別の方法として、
外部サーバーから、定期的に情報取得して、定期的にデータ削除する方法です。
簡単なバッチ処理で作れます。
ServiceNowには Excelのダウンロードが始まるURLを作成できます。
このURLを使って定期的にダウンロードするバッチ処理を作る。
CURLという古くからある バッチ処理のモジュールを使っても良いかもしれません。
複合データタイプへのレコードのエクスポートと変換 (servicenow.com)
curlを使ってベーシック認証→ユーザーログイン→ファイルダウンロード #curl - Qiita
【Windows】Windows 11でバッチファイルをタスクスケジューラーに追加する手順 | テックにゃんこのITブログ (technyanko.com)
- Mark as New
- Bookmark
- Subscribe
- Mute
- Subscribe to RSS Feed
- Permalink
- Report Inappropriate Content
08-18-2024 07:36 PM
ご回答ありがとうございます。
作成してみます!