CUBE SUGAR CONTAINER

技術系のこと書きます。

情報処理安全確保支援士試験に合格した

お仕事でセキュリティ関連のデータセットも扱う機会が出てきたので、勉強がてら受けてみた。 今回は、受験に関する諸々について書き留めておく。

情報処理安全確保支援士試験について

情報処理安全確保支援士試験というのは、旧情報セキュリティスペシャリスト試験の名前が変わったもの。 IPA が主催している点や、出題範囲やスキルレベルについては旧制度を引き継いでいる。

www.ipa.go.jp

旧制度とは、試験に合格すると情報処理安全確保支援士という士業に登録できる点が異なる。 逆を言えば、登録しない限り「情報処理安全確保支援士」は名乗ることができない。 登録していない場合、書類などには「情報処理安全確保支援士試験合格」とか書くことになる。

支援士に登録したときのメリットは「情報処理安全確保支援士」という名前が名乗れることだけ。 士業といっても、特に独占業務が遂行できるといったものはない。 代わりに、支援士の名称を維持するには毎年お金を払って講習を受ける必要がある。 金額としては、まず登録するときに 1 万円かかるのと、その後の維持費が 3 年間で 15 万円かかるらしい。

講習についても、今のところその金額に見合ったものではないようだ。 なので、とりあえず今の段階では登録はしないつもりでいる。 ちなみに、試験に合格さえしていれば登録自体はいつでもできるようになっている。

試験内容について

試験内容は午前 I, II と午後 I, II に分かれている。 全ての内容で基準点 (60 / 100 点満点中) 以上を取ると合格になる。 今回のスコアはこんな感じだった。

f:id:momijiame:20180104201254j:plain

午前 I, II は四択の選択問題で、午後 I, II は一部選択の記述式になっている。 午前 I については別のスキルレベル 4 (ネットワークスペシャリストなど) の試験と共通で、午前 II 以降が独自の問題となる。

午前 I については、別のスキルレベル 4 の試験で基準点以上を 2 年以内に取っていると、申請すれば免除されるらしい。 今回のケースでは、IPA の試験自体が学生以来 10 年ぶりの受験だったので関係なかった。

勉強方法について

勉強方法については、ひとまず一通りの知識を確認しておくために次の本を読んだ。 知らなかったり理解が浅いところについては改めて調べていく感じ。 それ以外は、ほとんど過去問を解くことに時間を費やした。

平成29年度【春期】【秋期】情報処理安全確保支援士 合格教本

平成29年度【春期】【秋期】情報処理安全確保支援士 合格教本

午前問題については Web やアプリで空き時間にひたすら反復するのが良いと思う。 似たような問題が例年出るので、基本的に暗記するだけで通る。

情報処理安全確保支援士過去問道場|情報処理安全確保支援士.com

午後問題については長文を読み解いて回答する必要があるので、こちらは暗記だけでは難しい感じ。 過去問をプリントアウトして何年か分を解いてみることで対策した。

IPA 独立行政法人 情報処理推進機構:過去問題

午後問題で印象的だったのは、設問に「具体的に」と書かれていない限りは概念さえ答えられれば良いということ。 書かれていなければ「これをこうすれば良い (実際にどうやるかは知らん)」というスタンスでも正解になる。 これに気づくまで「もっとちゃんと説明しないと・・・」と回答方法に悩むことが多かった。

受験した感想

学生時代に IPA の試験を受験したときは、午後問題がひたすら難しいと感じていた覚えがある。 今回は、特にそういった印象は受けなかった。 ここらへんは、実務の経験の有無が影響してくるのかもしれない。 ただ、午後問題は一つのトピックについて深掘りしていく感じなので、問題との相性はあるんだろうな。

Apache Hive の MAP 型を試す

前回に引き続き Apache Hive の複合型の一つ MAP 型を試してみる。

blog.amedama.jp

MAP 型は一般的なプログラミング言語でいうマップや辞書といったデータ構造に相当する。 これを使うとテーブルのカラムに任意のキーで値を格納できる。

環境は次の通り。

$ cat /etc/redhat-release 
CentOS Linux release 7.4.1708 (Core)
$ uname -r
3.10.0-693.5.2.el7.x86_64
$ hadoop version
Hadoop 2.8.3
Subversion https://git-wip-us.apache.org/repos/asf/hadoop.git -r b3fe56402d908019d99af1f1f4fc65cb1d1436a2
Compiled by jdu on 2017-12-05T03:43Z
Compiled with protoc 2.5.0
From source with checksum 9ff4856d824e983fa510d3f843e3f19d
This command was run using /home/vagrant/hadoop-2.8.3/share/hadoop/common/hadoop-common-2.8.3.jar
$ hive --version
Hive 2.3.2
Git git://stakiar-MBP.local/Users/stakiar/Desktop/scratch-space/apache-hive -r 857a9fd8ad725a53bd95c1b2d6612f9b1155f44d
Compiled by stakiar on Thu Nov 9 09:11:39 PST 2017
From source with checksum dc38920061a4eb32c4d15ebd5429ac8a

MAP 型を使ったテーブルを作る

MAP 型を使ってテーブルを作るときは、次のようにキーと値に使う型を指定してカラムを作る。

hive> CREATE TABLE users (
    >   name STRING,
    >   property MAP<STRING, STRING>
    > );
OK
Time taken: 0.047 seconds

ちなみにキーにはプリミティブ型しか指定できない。 試しにキーに ARRAY 型を指定してみると、以下のようにエラーになる。

hive> CREATE TABLE example (
    >   test MAP<ARRAY, STRING>
    > );
...
FAILED: ParseException line 2:11 cannot recognize input near 'ARRAY' ',' 'STRING' in primitive type specification

MAP 型を含むレコードを追加する

他の複合型と同様に、一般的な INSERT INTO ... VALUES を使ったレコードの追加ができない。

hive> INSERT INTO TABLE users
    >   VALUES (MAP("key1", "value1", "key2", "value2"));
FAILED: SemanticException [Error 10293]: Unable to create temp file for insert values Expression of type TOK_FUNCTION not supported in insert/values

代わりに SELECT を使ってデータを作って、それを追加してやる。 MAP() 関数を使うことでキーと値の組を使ったカラムを作れる。

hive> SELECT MAP("key1", "value1", "key2", "value2");
OK
_c0
{"key1":"value1","key2":"value2"}
Time taken: 0.059 seconds, Fetched: 1 row(s)

上記の SELECT で作ったデータを INSERT INTO でテーブルに追加する。

hive> INSERT INTO TABLE users
    >   SELECT "Alice", MAP("key1", "value1", "key2", "value2");
...
OK
_c0 _c1
Time taken: 19.437 seconds

テーブルを確認すると、ちゃんとレコードが入っている。

hive> SELECT * FROM users;
OK
users.name  users.property
Alice   {"key1":"value1","key2":"value2"}
Time taken: 0.136 seconds, Fetched: 1 row(s)

MAP 型の中身を参照する

MAP 型の中身を取り出すときはブラケットの中にキーを指定する。

hive> SELECT name, property["key1"] FROM users;
OK
name    _c1
Alice   value1
Time taken: 0.157 seconds, Fetched: 1 row(s)

存在しないキーの振る舞いを確認する

MAP 型には型さえ合っていれば、これまでに追加したことのないキーであっても大丈夫。

hive> INSERT INTO TABLE users
    >   SELECT "Bob", MAP("key1", "value1", "key3", "value3");
...
OK
_c0 _c1
Time taken: 18.935 seconds

テーブルの内容を確認すると、レコードごとに別々のキーが入っていることが分かる。

hive> SELECT * FROM users;
OK
users.name  users.property
Alice   {"key1":"value1","key2":"value2"}
Bob {"key1":"value1","key3":"value3"}
Time taken: 0.133 seconds, Fetched: 2 row(s)

レコードによってあったりなかったりするキーを参照したときの振る舞いを確認しておこう。

hive> SELECT name,
    >        property["key1"] AS key1,
    >        property["key2"] AS key2,
    >        property["key3"] AS key3
    > FROM users;
OK
name    key1    key2    key3
Alice   value1  value2  NULL
Bob value1  NULL    value3
Time taken: 0.123 seconds, Fetched: 2 row(s)

上記のように、レコードにキーがないときは NULL になるようだ。

次の確認のために、一旦テーブルを削除しておこう。

hive> DROP TABLE users;
OK
Time taken: 0.073 seconds

外部ファイルからデータを読み込む

続いて、外部ファイルからデータを読み込むときの挙動も確認しておく。

外部ファイルから読み込むときは次のように各フィールドやカラムの分割文字を指定しておく。

hive> CREATE TABLE users (
    >   name STRING,
    >   property MAP<STRING, STRING>
    > )
    > ROW FORMAT DELIMITED 
    > FIELDS TERMINATED BY ','  
    > COLLECTION ITEMS TERMINATED BY '$'
    > MAP KEYS TERMINATED BY ':'
    > STORED AS TEXTFILE;
OK
Time taken: 0.075 seconds

次のように CSV ファイルを作っておく。 先のテーブルを定義するときに指定した通り、キーと値は : で区切って、フィールドは $ で分割する。

$ cat << 'EOF' > users.csv
Alice,key1:value1$key2:value2
Bob,key1:value1$key3:value3
EOF

上記を Hive で LOAD DATA を使って読み込む。

hive> LOAD DATA LOCAL INPATH '/home/vagrant/users.csv' INTO TABLE users;
Loading data to table default.users
OK
Time taken: 0.385 seconds

すると、次のようにちゃんとテーブルにデータが格納された。

hive> SELECT * FROM users;
OK
users.name  users.property
Alice   {"key1":"value1","key2":"value2"}
Bob {"key1":"value1","key3":"value3"}
Time taken: 0.13 seconds, Fetched: 2 row(s)

ばっちり。

プログラミング Hive

プログラミング Hive

  • 作者: Edward Capriolo,Dean Wampler,Jason Rutherglen,佐藤直生,嶋内翔,Sky株式会社玉川竜司
  • 出版社/メーカー: オライリージャパン
  • 発売日: 2013/06/15
  • メディア: 大型本
  • この商品を含むブログ (3件) を見る

Apache Hive の STRUCT 型を試す

Apache Hive には基本となる文字列や数値以外にも複合型 (Complex Type) というデータタイプがある。 以前、その中の一つとして ARRAY 型をこのブログでも扱った。

blog.amedama.jp

今回は、それに続いて複合型の中で STRUCT 型というデータタイプを試してみる。 これは、文字通り一般的なプログラミング言語でいう構造体 (Struct) に相当するもの。 この STRUCT 型を使うことで一つのカラムの中に複数のデータを格納できる。 使い勝手としては KVS によくあるカラムファミリーに近いかもしれない。

環境は次の通り。

$ cat /etc/redhat-release 
CentOS Linux release 7.4.1708 (Core)
$ uname -r
3.10.0-693.5.2.el7.x86_64
$ hadoop version
Hadoop 2.8.3
Subversion https://git-wip-us.apache.org/repos/asf/hadoop.git -r b3fe56402d908019d99af1f1f4fc65cb1d1436a2
Compiled by jdu on 2017-12-05T03:43Z
Compiled with protoc 2.5.0
From source with checksum 9ff4856d824e983fa510d3f843e3f19d
This command was run using /home/vagrant/hadoop-2.8.3/share/hadoop/common/hadoop-common-2.8.3.jar
$ hive --version
Hive 2.3.2
Git git://stakiar-MBP.local/Users/stakiar/Desktop/scratch-space/apache-hive -r 857a9fd8ad725a53bd95c1b2d6612f9b1155f44d
Compiled by stakiar on Thu Nov 9 09:11:39 PST 2017
From source with checksum dc38920061a4eb32c4d15ebd5429ac8a

STRUCT 型を使ってテーブルを作る

例として、まずは名前の姓と名を STRUCT 型で分割して保存するテーブルを作ってみる。 STRUCT 型を定義するときは、次のように <> の中に名前と型をカンマ区切りで羅列していく。

hive> CREATE TABLE users (
    >   name STRUCT<first: STRING,
    >               last: STRING>
    > );
OK
Time taken: 0.135 seconds

STRUCT 型を使ったレコードを追加する

データを追加するときは一般的な INSERT INTO ... VALUES が使えない。

hive> INSERT INTO TABLE users
    >   VALUES (NAMED_STRUCT("first", "John", "last", "Doe"));
FAILED: SemanticException [Error 10293]: Unable to create temp file for insert values Expression of type TOK_FUNCTION not supported in insert/values

代わりに SELECT で作ったデータを使うことになる。 NAMED_STRUCT() 関数はフィールドに名前のついた STRUCT 型のデータを作るために使う。

hive> SELECT NAMED_STRUCT("first", "John", "last", "Doe");
OK
_c0
{"first":"John","last":"Doe"}
Time taken: 0.066 seconds, Fetched: 1 row(s)

上記のように SELECT で作ったデータを INSERT INTO に渡してやる。

hive> INSERT INTO TABLE users
    >   SELECT NAMED_STRUCT("first", "John", "last", "Doe");
...
OK
_c0
Time taken: 21.451 seconds

この通り、ちゃんとレコードが保存された。

hive> SELECT * FROM users;
OK
users.name
{"first":"John","last":"Doe"}
Time taken: 0.156 seconds, Fetched: 1 row(s)

STRUCT 型のフィールドを参照する

STRUCT 型に保存されたフィールドの中身を参照するときは、次のようにカラム名にドットでフィールド名をつなげてやる。

hive> SELECT name.first, name.last FROM users;
OK
first   last
John    Doe
Time taken: 0.143 seconds, Fetched: 1 row(s)

基本的な使い方は上記の通り。 一旦テーブルを削除しておこう。

hive> DROP TABLE users;
OK
Time taken: 0.119 seconds

ARRAY 型と組み合わせて使う

STRUCT 型は別の複合型と組み合わせて使うこともできる。

例えば ARRAY 型の中に STRUCT 型を含むようなテーブルを作ってみよう。

hive> CREATE TABLE users (
    >   name STRING,
    >   addresses ARRAY<STRUCT<country: STRING,
    >                          city: STRING>>
    > );
OK
Time taken: 0.114 seconds

データを追加するときは、次のように ARRAY() 関数と NAMED_STRUCT() 関数を組み合わせる。

hive> INSERT INTO TABLE users
    >   SELECT "Alice", ARRAY(NAMED_STRUCT("country", "japan", "city", "tokyo"),
    >                         NAMED_STRUCT("country", "japan", "city", "osaka"));
...
OK
_c0 _c1
Time taken: 20.376 seconds

テーブルを確認すると、ちゃんと ARRAY 型の中に STRUCT 型のデータが収まっていることが分かる。

hive> SELECT * FROM users;
OK
users.name  users.addresses
Alice   [{"country":"japan","city":"tokyo"},{"country":"japan","city":"osaka"}]
Time taken: 0.133 seconds, Fetched: 1 row(s)

中身を展開して集計するときは普通に ARRAY 型を使うときと同じように LATERAL VIEWexplode() 関数を組み合わせれば良い。

hive> SELECT *
    > FROM users
    > LATERAL VIEW explode(addresses) users AS address;
OK
users.name  users.addresses users.address
Alice   [{"country":"japan","city":"tokyo"},{"country":"japan","city":"osaka"}] {"country":"japan","city":"tokyo"}
Alice   [{"country":"japan","city":"tokyo"},{"country":"japan","city":"osaka"}] {"country":"japan","city":"osaka"}
Time taken: 0.121 seconds, Fetched: 2 row(s)
hive> SELECT name, address.country, address.city
    > FROM users
    > LATERAL VIEW explode(addresses) users AS address;
OK
name    country city
Alice   japan   tokyo
Alice   japan   osaka
Time taken: 0.045 seconds, Fetched: 2 row(s)

外部ファイルからデータを読み込む

外部ファイルからデータを読み込むときは、次のようにフィールドやコレクションの区切り文字を指定しておく。

hive> CREATE TABLE users (
    >   name STRUCT<first: STRING,
    >               last: STRING>
    > )
    > ROW FORMAT DELIMITED 
    > FIELDS TERMINATED BY ','  
    > COLLECTION ITEMS TERMINATED BY '$'
    > STORED AS TEXTFILE;
OK
Time taken: 0.143 seconds

フィールドの区切り文字として $ を使った CSV ファイルを用意しておく。

$ cat << 'EOF' > users.csv 
Yamada$Taro
Suzuki$Ichiro
EOF

あとは上記を Hive で読み込むだけ。

hive> LOAD DATA LOCAL INPATH '/home/vagrant/users.csv' INTO TABLE users;
Loading data to table default.users
OK
Time taken: 0.944 seconds

この通り、ちゃんとデータが格納された。

hive> SELECT * FROM users;
OK
users.name
{"first":"Yamada","last":"Taro"}
{"first":"Suzuki","last":"Ichiro"}
Time taken: 0.287 seconds, Fetched: 2 row(s)

次はもうちょっと複雑な例を示す。 その前に、一旦テーブルを削除しておこう。

hive> DROP TABLE users;
OK
Time taken: 0.193 seconds

次は、先ほどと同じように ARRAY 型と STRUCT 型を組み合わせたパターンでも外部ファイルから読み込んでみる。 このときのポイントとしては MAP KEYS TERMINATED BY も指定しておくところ。

hive> CREATE TABLE users (
    >   name STRING,
    >   addresses ARRAY<STRUCT<country: STRING,
    >                          city: STRING>>
    > )
    > ROW FORMAT DELIMITED 
    > FIELDS TERMINATED BY ','  
    > COLLECTION ITEMS TERMINATED BY '$'
    > MAP KEYS TERMINATED BY ':'
    > STORED AS TEXTFILE;
OK
Time taken: 0.06 seconds

今度はフィールドの区切り文字は : を使いつつリストの区切り文字として $ を指定してやる。

$ cat << 'EOF' > users.csv
Alice,japan:tokyo$japan:osaka
Bob,america:newyork$america:california
EOF

上記のファイルを読み込んでみよう。

hive> LOAD DATA LOCAL INPATH '/home/vagrant/users.csv' INTO TABLE users;
Loading data to table default.users
OK
Time taken: 0.432 seconds

すると、以下のようにちゃんと保存されている。

hive> SELECT * FROM users;
OK
users.name  users.addresses
Alice   [{"country":"japan","city":"tokyo"},{"country":"japan","city":"osaka"}]
Bob [{"country":"america","city":"newyork"},{"country":"america","city":"california"}]
Time taken: 0.134 seconds, Fetched: 2 row(s)

ばっちり。

プログラミング Hive

プログラミング Hive

  • 作者: Edward Capriolo,Dean Wampler,Jason Rutherglen,佐藤直生,嶋内翔,Sky株式会社玉川竜司
  • 出版社/メーカー: オライリージャパン
  • 発売日: 2013/06/15
  • メディア: 大型本
  • この商品を含むブログ (3件) を見る

Apache Hive の Partition 機能を使ってみる

今回は Apache Hive の Partition 機能を使ってみる。 Partition 機能を用いない場合、クエリを発行するとテーブルを構成するファイル群にフルスキャンがかかる。 それに対し、Partition 機能を用いるとクエリによってはスキャンするファイルの範囲を制限できる。 結果としてパフォーマンスの向上が見込める場合がある。

使った環境は次の通り。 Apache Hive や Hadoop のインストール部分については省略する。

$ cat /etc/redhat-release 
CentOS Linux release 7.4.1708 (Core)
$ uname -r
3.10.0-693.5.2.el7.x86_64
$ hadoop version
Hadoop 2.8.3
Subversion https://git-wip-us.apache.org/repos/asf/hadoop.git -r b3fe56402d908019d99af1f1f4fc65cb1d1436a2
Compiled by jdu on 2017-12-05T03:43Z
Compiled with protoc 2.5.0
From source with checksum 9ff4856d824e983fa510d3f843e3f19d
This command was run using /home/vagrant/hadoop-2.8.3/share/hadoop/common/hadoop-common-2.8.3.jar
$ hive --version
Hive 2.3.2
Git git://stakiar-MBP.local/Users/stakiar/Desktop/scratch-space/apache-hive -r 857a9fd8ad725a53bd95c1b2d6612f9b1155f44d
Compiled by stakiar on Thu Nov 9 09:11:39 PST 2017
From source with checksum dc38920061a4eb32c4d15ebd5429ac8a

下準備として Hive の CLI を起動しておく。

$ hive
hive> set hive.cli.print.header=true;

Partition 機能を使わない場合

まずは Partition 機能を使わない場合について見ておこう。

例としてユーザがログインしたときのイベントを記録するテーブルを用意する。

hive> CREATE TABLE login_events (
    >   datetime TIMESTAMP,
    >   name STRING
    > );
OK
Time taken: 0.052 seconds

上記のテーブルにレコードを追加してみよう。

hive> INSERT INTO login_events
    >   VALUES ("2018-01-01 10:00:00", "Alice");
...
OK
_col0   _col1
Time taken: 22.584 seconds

一件のレコードがテーブルに保存された。

hive> SELECT * FROM login_events;
OK
login_events.datetime   login_events.name
2018-01-01 10:00:00 Alice
Time taken: 0.148 seconds, Fetched: 1 row(s)

このとき、実際にテーブルのデータが格納される場所は SHOW CREATE TABLE を使って確認できる。 具体的には LOCATION のところ。

hive> SHOW CREATE TABLE login_events;
OK
createtab_stmt
CREATE TABLE `login_events`(
  `datetime` timestamp, 
  `name` string)
ROW FORMAT SERDE 
  'org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe' 
STORED AS INPUTFORMAT 
  'org.apache.hadoop.mapred.TextInputFormat' 
OUTPUTFORMAT 
  'org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat'
LOCATION
  'hdfs://master:9000/user/hive/warehouse/login_events'
TBLPROPERTIES (
  'transient_lastDdlTime'='1514916341')
Time taken: 0.026 seconds, Fetched: 13 row(s)

今回であれば HDFS 上の /user/hive/warehouse/login_events というパスに格納されていることが分かる。

hdfs コマンドを使って上記のディレクトリを確認してみよう。 たしかに、先ほど追加したデータが書き込まれたテキストファイルがある。

$ hdfs dfs -ls /user/hive/warehouse/login_events
Found 1 items
-rwxrwxr-x   2 vagrant supergroup         26 2018-01-02 18:26 /user/hive/warehouse/login_events/000000_0
$ hdfs dfs -cat /user/hive/warehouse/login_events/000000_0
2018-01-01 10:00:00Alice

さて、上記のテーブルは Partition 機能を使っていない。 そのため、以下のような時刻を制限するようなクエリを実行したときも、ファイル群のフルスキャンが必要になってしまう。

hive> SELECT *
    >   FROM login_events
    >   WHERE datetime > "2018-01-01 00:00:00";
OK
login_events.datetime   login_events.name
2018-01-01 10:00:00 Alice
Time taken: 0.169 seconds, Fetched: 1 row(s)

フルスキャンが走るとデータが増えたときに実行時間がかかるので、それを避けたいというのが今回の本題になる。

一旦、上記のテーブルを削除しておこう。

hive> DROP TABLE login_events;
OK
Time taken: 0.143 seconds

Table-by-Day アンチパターン

Partition 機能の説明に入る前に Table-by-Day というアンチパターンについて見ておこう。 これは、フルスキャンに時間のかかるテーブルに対処する方法として使われることのあるやり方だ。 具体的には、日付ごとの単位などでテーブルを分割して作ることでスキャンの範囲を狭めようというもの。

hive> CREATE TABLE login_events_20180101 (
    >   datetime TIMESTAMP,
    >   name STRING
    > );
OK
Time taken: 0.107 seconds
hive> CREATE TABLE login_events_20180102 (
    >   datetime TIMESTAMP,
    >   name STRING
    > );
OK
Time taken: 0.046 seconds

もちろんデータはテーブルに応じて格納することになる。

hive> INSERT INTO login_events_20180101
    >   VALUES ("2018-01-01 10:00:00", "Alice");
...
OK
_col0   _col1
Time taken: 23.413 seconds
hive> INSERT INTO login_events_20180102
    >   VALUES ("2018-01-02 20:00:00", "Bob");
...
OK
_col0   _col1
Time taken: 25.033 seconds

ただ、このやり方を取ると日付をまたいだ集計をするときなんかにクエリが複雑化してイマイチな感じ。

hive> SELECT * FROM login_events_20180101
    > UNION ALL
    > SELECT * FROM login_events_20180102;
...
_u1.datetime    _u1.name
2018-01-01 10:00:00 Alice
2018-01-02 20:00:00 Bob
Time taken: 26.36 seconds, Fetched: 2 row(s)

Apache Hive では Table-by-Day よりも Partition 機能を使うことが推奨されている。

Partition 機能を使った場合

続いて Partition 機能を使ってみる。

今度はテーブルを作るときに PARTITIONED BY で年月日 (year, month, day) を元にパーティションを構成する。

hive> CREATE TABLE login_events (
    >   datetime TIMESTAMP,
    >   name STRING
    > )
    > PARTITIONED BY (year INT, month INT, day INT);
OK
Time taken: 0.049 seconds

datetime を直接使えないの?という疑問が浮かぶと思うけど残念ながら難しそう。

レコードを追加するときは、次のようにカラムの値と一緒にパーティションの値も指定することになる。

hive> INSERT INTO login_events
    >   PARTITION (year=2017, month=1, day=1)
    >   VALUES ("2018-01-01 10:00:00", "Alice");
...
_col0   _col1
Time taken: 24.017 second

さて、それでは先ほどと同じように HDFS 上でデータがどのように格納されているかを確認してみよう。

hive> SHOW CREATE TABLE login_events;
OK
createtab_stmt
CREATE TABLE `login_events`(
  `datetime` timestamp, 
  `name` string)
PARTITIONED BY ( 
  `year` int, 
  `month` int, 
  `day` int)
ROW FORMAT SERDE 
  'org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe' 
STORED AS INPUTFORMAT 
  'org.apache.hadoop.mapred.TextInputFormat' 
OUTPUTFORMAT 
  'org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat'
LOCATION
  'hdfs://master:9000/user/hive/warehouse/login_events'
TBLPROPERTIES (
  'transient_lastDdlTime'='1514917075')
Time taken: 0.048 seconds, Fetched: 17 row(s)

格納されているディレクトリを見てみると、パーティションの値に応じてディレクトリが作られていることが分かる。

$ hdfs dfs -ls /user/hive/warehouse/login_events
Found 1 items
drwxrwxr-x   - vagrant supergroup          0 2018-01-02 18:18 /user/hive/warehouse/login_events/year=2017
$ hdfs dfs -find /user/hive/warehouse/login_events
/user/hive/warehouse/login_events
/user/hive/warehouse/login_events/year=2017
/user/hive/warehouse/login_events/year=2017/month=1
/user/hive/warehouse/login_events/year=2017/month=1/day=1
/user/hive/warehouse/login_events/year=2017/month=1/day=1/000000_0

そう、つまり Partition 機能というのは格納されるディレクトリを分割することで実現されている。

新しくレコードを追加したときも確認してみよう。 今度はパーティションの値が先ほどとは異なる。

hive> INSERT INTO login_events
    >   PARTITION (year=2017, month=1, day=2)
    >   VALUES ("2018-01-02 20:00:00", "Bob");
...
OK
_col0   _col1
Time taken: 20.819 seconds

同様に、新しくパーティションに対応するディレクトリが作成された。

$ hdfs dfs -find /user/hive/warehouse/login_events
/user/hive/warehouse/login_events
/user/hive/warehouse/login_events/year=2017
/user/hive/warehouse/login_events/year=2017/month=1
/user/hive/warehouse/login_events/year=2017/month=1/day=1
/user/hive/warehouse/login_events/year=2017/month=1/day=1/000000_0
/user/hive/warehouse/login_events/year=2017/month=1/day=2
/user/hive/warehouse/login_events/year=2017/month=1/day=2/000000_0

この状態でパーティションを使って条件式を組むとファイルのスキャン範囲がディレクトリ内に限定されるという寸法らしい。

hive> SELECT *
    > FROM login_events
    > WHERE year = 2017 AND month = 1 AND day = 1;
OK
login_events.datetime   login_events.name   login_events.year   login_events.month  login_events.day
2018-01-01 10:00:00 Alice   2017   1  1
Time taken: 0.389 seconds, Fetched: 1 row(s)

なるほど、それなら条件によってはクエリのパフォーマンスが向上するだろう、という感じ。

一旦、またテーブルを削除しておこう。

hive> DROP TABLE login_events;
OK
Time taken: 0.499 seconds

既存のテーブルにパーティションを追加する

続いては、既存の Partition 機能を使っていないテーブルにパーティションを追加したいというユースケースについて。 ようするに、最初は余裕だったけど時間とともにデータが増えてきてやばっ、というような場合。

まずは Partition 機能を使わない状態でテーブルを作ってレコードを追加しておこう。

hive> CREATE TABLE login_events (
    >   datetime TIMESTAMP,
    >   name STRING
    > );
OK
Time taken: 0.156 seconds
hive> INSERT INTO login_events
    >   VALUES
    >     ("2018-01-01 10:00:00", "Alice"),
    >     ("2018-01-02 20:00:00", "Bob"),
    >     ("2018-01-03 06:00:00", "Carol");
OK
_col0   _col1
Time taken: 22.689 seconds

あらかじめ、ここからの作業の流れについて概要を説明しておく。 残念なことに、既存のテーブルに直接パーティションのカラムを追加することはできない。 そこで、まずは既存のテーブルにパーティションを追加した形で新しいテーブルを用意しておく。 そして、その新しいテーブルに既存のテーブルのデータを移し替えることになる。

Partition に使う値は、元々あった datetime カラムから生成することにしよう。 先ほどはパーティションを year > month > day と階層構造にしたけど、今度は一つにまとめてしまうことにする。

hive> SELECT date_format(datetime, "yyyy-MM-DD") FROM login_events;
OK
_c0
2018-01-01
2018-01-02
2018-01-03
Time taken: 0.253 seconds, Fetched: 3 row(s)

データを移行する先の、パーティションを追加した新しいテーブルを partitioned_login_events という名前で用意する。

hive> CREATE TABLE partitioned_login_events (
    >   datetime TIMESTAMP,
    >   name STRING
    > )
    > PARTITIONED BY (day STRING);
OK
Time taken: 0.137 seconds

これから実施する作業は Dynamic Partition と呼ばれる機能を使うことになる。 そこで、あらかじめその機能を有効にしておこう。

hive> SET hive.exec.dynamic.partition=true;
hive> SET hive.exec.dynamic.partition.mode=nonstrict;

Dynamic Partition 機能というのは、既存のテーブルに存在するカラムの値から自動的にパーティションを構成する機能をいう。 この機能を使わないと、自分で一つ一つパーティションを指定しながらデータの移行作業をする羽目になってつらい。

実際にデータの移行を実施するクエリは次の通り。 login_events から partitioned_login_events に対して INSERT OVERWRITE でデータを移行している。 その際に SELECT で作成した day カラムをパーティションに指定しているのがポイント。

hive> FROM login_events
    > INSERT OVERWRITE TABLE partitioned_login_events
    > PARTITION(day)
    > SELECT datetime, name, date_format(datetime, "yyyy-MM-DD") AS day;
...
OK
datetime    name    day
Time taken: 21.565 seconds

データがどのように格納されたかを確認してみよう。

hive> SHOW CREATE TABLE partitioned_login_events;
OK
createtab_stmt
CREATE TABLE `partitioned_login_events`(
  `datetime` timestamp, 
  `name` string)
PARTITIONED BY ( 
  `day` string)
ROW FORMAT SERDE 
  'org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe' 
STORED AS INPUTFORMAT 
  'org.apache.hadoop.mapred.TextInputFormat' 
OUTPUTFORMAT 
  'org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat'
LOCATION
  'hdfs://master:9000/user/hive/warehouse/partitioned_login_events'
TBLPROPERTIES (
  'transient_lastDdlTime'='1514918693')
Time taken: 0.02 seconds, Fetched: 15 row(s)

ちゃんと日付に応じてディレクトリが作られており Partition 機能が有効に働いていることが分かる。

$ hdfs dfs -find /user/hive/warehouse/partitioned_login_events
/user/hive/warehouse/partitioned_login_events
/user/hive/warehouse/partitioned_login_events/day=2018-01-01
/user/hive/warehouse/partitioned_login_events/day=2018-01-01/000000_0
/user/hive/warehouse/partitioned_login_events/day=2018-01-02
/user/hive/warehouse/partitioned_login_events/day=2018-01-02/000000_0
/user/hive/warehouse/partitioned_login_events/day=2018-01-03
/user/hive/warehouse/partitioned_login_events/day=2018-01-03/000000_0

あとは元々の名前にテーブルをリネームするなりご自由に。

まとめ

  • Apache Hive は、そのままだとテーブルを構成するファイル群をフルスキャンする
  • スキャン範囲を限定する方法には Table-by-Day というアンチパターンがある
  • Apache Hive では代わりに Partition 機能を使うことが推奨されている
  • Partition 機能はデータを格納するディレクトリを分割することで実現されている

プログラミング Hive

プログラミング Hive

  • 作者: Edward Capriolo,Dean Wampler,Jason Rutherglen,佐藤直生,嶋内翔,Sky株式会社玉川竜司
  • 出版社/メーカー: オライリージャパン
  • 発売日: 2013/06/15
  • メディア: 大型本
  • この商品を含むブログ (3件) を見る

Apache Hive の ARRAY 型を試す

Apache Hive には ARRAY 型というデータタイプがある。 これは一般的なプログラミング言語でいえば配列に相当するもの。 ようするに、文字列や数値といったデータを一つのレコードに複数格納できる。 リレーショナルデータベースのアンチパターンであるジェイ・ウォークをするために用意されたようなものだ。 ただ、Apache Hive は JOIN の性能が高くないことから、こういったデータタイプを使わざるを得ない場合もあるということだろう。 使ってみたところ一般的なデータタイプとはちょっと違ってクセがあったので、それについてメモしておく。

使った環境は次の通り。 Apache Hive や Hadoop のインストール部分は省略する。

$ cat /etc/redhat-release 
CentOS Linux release 7.4.1708 (Core)
$ uname -r
3.10.0-693.5.2.el7.x86_64
$ hadoop version
Hadoop 2.8.3
Subversion https://git-wip-us.apache.org/repos/asf/hadoop.git -r b3fe56402d908019d99af1f1f4fc65cb1d1436a2
Compiled by jdu on 2017-12-05T03:43Z
Compiled with protoc 2.5.0
From source with checksum 9ff4856d824e983fa510d3f843e3f19d
This command was run using /home/vagrant/hadoop-2.8.3/share/hadoop/common/hadoop-common-2.8.3.jar
$ hive --version
Hive 2.3.2
Git git://stakiar-MBP.local/Users/stakiar/Desktop/scratch-space/apache-hive -r 857a9fd8ad725a53bd95c1b2d6612f9b1155f44d
Compiled by stakiar on Thu Nov 9 09:11:39 PST 2017
From source with checksum dc38920061a4eb32c4d15ebd5429ac8a

下準備

まずは Hive の CLI を起動しておく。

$ hive
hive> set hive.cli.print.header=true;

ARRAY 型について

ARRAY 型では、以下のように ARRAY でくくって複数の値をカンマ区切りで格納できる。

hive> SELECT ARRAY("a", "b");
OK
_c0
["a","b"]
Time taken: 8.74 seconds, Fetched: 1 row(s)

テーブルを作る

ARRAY 型を使ってテーブルを作るときは、中に入るデータタイプを指定する。

hive> CREATE TABLE users (
    >   name STRING,
    >   emails ARRAY<STRING>
    > );
OK
Time taken: 0.997 seconds

このように、ちゃんとテーブルができた。

hive> SHOW CREATE TABLE users;
OK
createtab_stmt
CREATE TABLE `users`(
  `name` string, 
  `emails` array<string>)
ROW FORMAT SERDE 
  'org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe' 
STORED AS INPUTFORMAT 
  'org.apache.hadoop.mapred.TextInputFormat' 
OUTPUTFORMAT 
  'org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat'
LOCATION
  'hdfs://master:9000/user/hive/warehouse/users'
TBLPROPERTIES (
  'transient_lastDdlTime'='1514884223')
Time taken: 0.405 seconds, Fetched: 13 row(s)

レコードを追加する

レコードを追加するときは、ちょっとした一工夫が必要になる。

普通にデータを追加しようとしても、次のようにエラーになってしまう。

hive> INSERT INTO users VALUES ("Alice", ARRAY("alice@example.jp", "alice@example.com"));
FAILED: SemanticException [Error 10293]: Unable to create temp file for insert values Expression of type TOK_FUNCTION not supported in insert/values

データを追加するときは、先ほど SELECT 文であれば正しくデータが表示できたことを応用する。

hive> SELECT "Alice", ARRAY("alice@example.jp", "alice@example.com");
OK
_c0 _c1
Alice   ["alice@example.jp","alice@example.com"]
Time taken: 0.12 seconds, Fetched: 1 row(s)

INSERT INTO <table> に続けて、上記の SELECT 文を入れてやれば良い。

hive> INSERT INTO users
    >   SELECT "Alice", ARRAY("alice@example.jp", "alice@example.com");
...
OK
_c0 _c1
Time taken: 27.894 seconds

今度は、ちゃんと追加できた。

hive> SELECT * FROM users;
OK
users.name  users.emails
Alice   ["alice@example.jp","alice@example.com"]
Time taken: 1.308 seconds, Fetched: 1 row(s)

データを集計する

データを集計するときも一工夫が必要になる。

ひとまず、別のレコードも追加しておこう。

hive> INSERT INTO users
    >   SELECT "Bob", ARRAY("bob@example.net", "bob@example.org");
...
OK
_c0 _c1
Time taken: 20.907 seconds

テーブルには二人分のデータが入っている。 ただ、中身が ARRAY 型のままでは集計できない。

hive> SELECT emails FROM users;
OK
emails
["alice@example.jp","alice@example.com"]
["bob@example.net","bob@example.org"]
Time taken: 0.203 seconds, Fetched: 2 row(s)

そんなときは LITERAL VIEWexplode() 関数を使って、中身を展開してやる。 例えば以下では emails カラムの中身を email として展開している。

hive> SELECT *
    > FROM users
    > LATERAL VIEW explode(emails) users AS email;
OK
users.name  users.emails    users.email
Alice   ["alice@example.jp","alice@example.com"]  alice@example.jp
Alice   ["alice@example.jp","alice@example.com"]  alice@example.com
Bob ["bob@example.net","bob@example.org"] bob@example.net
Bob ["bob@example.net","bob@example.org"] bob@example.org
Time taken: 0.093 seconds, Fetched: 4 row(s)

展開できてしまえばこちらのもの。 例えばユーザがメールアドレスをいくつ持っているのか集計してみよう。 ユーザごとに GROUP BY した上で、展開した email カラムを COUNT() 関数にかける。

hive> SELECT
    >   name,
    >   COUNT(email) AS email_count
    > FROM users
    > LATERAL VIEW explode(emails) users AS email
    > GROUP BY name;
...
OK
name    email_count
Alice   2
Bob 2
Time taken: 27.477 seconds, Fetched: 2 row(s)

ばっちり。

外部ファイルからデータを読み込む

外部ファイルから ARRAY 型にデータを読み込むときはテーブルを作るときに一工夫が必要になる。 具体的には COLLECTION ITEMS TERMINATED BY を使って区切り文字を指定する。

hive> CREATE TABLE users (
    >     name STRING,
    >     emails ARRAY<STRING>
    > )
    > ROW FORMAT DELIMITED 
    > FIELDS TERMINATED BY ','  
    > COLLECTION ITEMS TERMINATED BY '$'
    > STORED AS TEXTFILE;
OK
Time taken: 0.051 seconds

読み込むデータを次のように用意しておく。

$ cat << 'EOF' > users.csv 
Alice,alice@example.jp$alice@example.com
Bob,bob@example.net$bob@example.org
EOF

LOAD DATA を使って上記のファイルを users テーブルに読み込む。

hive> LOAD DATA LOCAL INPATH '/home/vagrant/users.csv' INTO TABLE users;
Loading data to table default.users
OK
Time taken: 0.916 seconds

テーブルの中身を確認するとデータが読み込まれていることが分かる。

hive> SELECT * FROM users;
OK
users.name  users.emails
Alice   ["alice@example.jp","alice@example.com"]
Bob ["bob@example.net","bob@example.org"]
Time taken: 0.095 seconds, Fetched: 2 row(s)

HDFS 上のファイルについても確認しておこう。

hive> SHOW CREATE TABLE users;
OK
createtab_stmt
CREATE TABLE `users`(
  `name` string, 
  `emails` array<string>)
ROW FORMAT SERDE 
  'org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe' 
WITH SERDEPROPERTIES ( 
  'colelction.delim'='$', 
  'field.delim'=',', 
  'serialization.format'=',') 
STORED AS INPUTFORMAT 
  'org.apache.hadoop.mapred.TextInputFormat' 
OUTPUTFORMAT 
  'org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat'
LOCATION
  'hdfs://master:9000/user/hive/warehouse/users'
TBLPROPERTIES (
  'transient_lastDdlTime'='1514981348')
Time taken: 0.035 seconds, Fetched: 17 row(s)

すると、先ほどのファイルがそのまま保存されていることが分かる。

$ hdfs dfs -ls /user/hive/warehouse/users/
Found 1 items
-rwxrwxr-x   2 vagrant supergroup         77 2018-01-03 12:09 /user/hive/warehouse/users/users.csv
$ hdfs dfs -cat /user/hive/warehouse/users/users.csv
Alice,alice@example.jp$alice@example.com
Bob,bob@example.net$bob@example.org

いじょう。

まとめ

  • Apache Hive には一つのレコードで複数の値を扱うことができる ARRAY 型がある
  • ARRAY 型は JOIN を避けるためにジェイ・ウォークするときは有用と考えられる
  • ただし、操作方法にクセがあるので注意が必要となる
  • レコードを INSERT するときは SELECT と組み合わせる
  • データを集計するときは LITERAL VIEW と explode 関数を組み合わせる

プログラミング Hive

プログラミング Hive

  • 作者: Edward Capriolo,Dean Wampler,Jason Rutherglen,佐藤直生,嶋内翔,Sky株式会社玉川竜司
  • 出版社/メーカー: オライリージャパン
  • 発売日: 2013/06/15
  • メディア: 大型本
  • この商品を含むブログ (3件) を見る

RedPen で技術文書を校正する

今回は RedPen というオープンソースの文書校正ツールを使ってみる。 こういったツールを使うことで、文書の典型的な誤りや読みにくいところを見つけやすくなる。 似たようなツールとしては textlint なんてのもある。

環境は次の通り。

$ sw_vers 
ProductName:    Mac OS X
ProductVersion: 10.12.6
BuildVersion:   16G1114
$ brew --version
Homebrew 1.4.1
Homebrew/homebrew-core (git revision dcf9; last commit 2017-12-29)

インストール

まずは Homebrew を使って RedPen をインストールする。

$ brew install redpen
$ redpen --version
1.10.1

デフォルトの設定ファイルを用意する

RedPen の動作には XML で書かれた設定ファイルが必要になる。 そこで、デフォルトで用意されている設定ファイルをコピーしてこよう。

$ brew ls redpen | grep conf 
/usr/local/Cellar/redpen/1.10.1/libexec/conf/logback.xml
/usr/local/Cellar/redpen/1.10.1/libexec/conf/redpen-conf-en.xml
/usr/local/Cellar/redpen/1.10.1/libexec/conf/redpen-conf-ja.xml
/usr/local/Cellar/redpen/1.10.1/libexec/conf/redpen-conf-plugin.xml
$ cp /usr/local/Cellar/redpen/1.10.1/libexec/conf/redpen-conf-ja.xml my-redpen-conf.xml

使ってみる

設定ファイルが準備できたら、早速試してみよう。 例えば、次のようにタイポのある文書を用意する。

$ echo "これはは嬉しい" > sample.txt

あとは -c オプションで設定ファイルを指定しつつ redpen コマンドを上記の文書に対して実行する。

$ redpen -c my-redpen-conf.xml sample.txt
[2017-12-31 18:23:56.046][INFO ] cc.redpen.Main - Configuration file: /Users/amedama/Documents/temporary/my-redpen-conf.xml
[2017-12-31 18:23:56.054][INFO ] cc.redpen.config.ConfigurationLoader - Loading config from specified config file: "/Users/amedama/Documents/temporary/my-redpen-conf.xml"
[2017-12-31 18:23:56.086][INFO ] cc.redpen.config.ConfigurationLoader - Succeeded to load configuration file
[2017-12-31 18:23:56.087][INFO ] cc.redpen.config.ConfigurationLoader - Language is set to "ja"
[2017-12-31 18:23:56.087][WARN ] cc.redpen.config.ConfigurationLoader - No variant configuration...
[2017-12-31 18:23:56.166][INFO ] cc.redpen.config.ConfigurationLoader - No "symbols" block found in the configuration
[2017-12-31 18:23:56.169][INFO ] cc.redpen.config.SymbolTable - "ja" is specified.
[2017-12-31 18:23:56.170][INFO ] cc.redpen.config.SymbolTable - "zenkaku" variant is specified
[2017-12-31 18:23:56.756][INFO ] cc.redpen.parser.SentenceExtractor - "[。, ?, !]" are added as a end of sentence characters
[2017-12-31 18:23:56.757][INFO ] cc.redpen.parser.SentenceExtractor - "[’, ”]" are added as a right quotation characters
[2017-12-31 18:23:57.086][INFO ] org.reflections.Reflections - Reflections took 49 ms to scan 1 urls, producing 6 keys and 58 values 
[2017-12-31 18:23:57.181][WARN ] cc.redpen.validator.ValidatorFactory - cc.redpen.validator.section.VoidSectionValidator is deprecated
[2017-12-31 18:23:57.186][WARN ] cc.redpen.validator.ValidatorFactory - cc.redpen.validator.sentence.SpaceBeginningOfSentenceValidator is deprecated
[2017-12-31 18:23:57.205][INFO ] org.reflections.Reflections - Reflections took 3 ms to scan 1 urls, producing 175 keys and 180 values 
[2017-12-31 18:23:57.215][INFO ] cc.redpen.util.DictionaryLoader - Succeeded to load InvalidExpressionValidator default dictionary.
[2017-12-31 18:23:57.226][INFO ] cc.redpen.util.DictionaryLoader - Succeeded to load double negative expression rules.
[2017-12-31 18:23:57.226][INFO ] cc.redpen.util.DictionaryLoader - Succeeded to load double negative words.
[2017-12-31 18:23:57.230][INFO ] cc.redpen.validator.JavaScriptValidator - JavaScript validators directory: js
sample.txt:1: ValidationError[SuccessiveWord], Found word "は" repeated twice in succession. at line: これはは嬉しい
sample.txt:1: ValidationError[JapaneseJoyoKanji], Found non-joyo kanji: "嬉" at line: これはは嬉しい

[2017-12-31 18:23:57.269][ERROR] cc.redpen.Main - The number of errors "2" is larger than specified (limit is "1").

すると、タイポしている点と「嬉」という漢字が常用漢字でないことを RedPen が教えてくれた。

ちなみに RedPen 自体のデバッグ用出力がうっとおしいときは標準エラー出力を捨ててしまうと良い。

$ redpen -c my-redpen-conf.xml sample.txt 2>/dev/null
sample.txt:1: ValidationError[SuccessiveWord], Found word "は" repeated twice in succession. at line: これはは嬉しい
sample.txt:1: ValidationError[JapaneseJoyoKanji], Found non-joyo kanji: "嬉" at line: これはは嬉しい

ただ、たまに重要なことが出力されていたりもするので設定ファイルをいじった直後なんかはいきなり捨てない方が良いかも。

上記の問題を修正してやれば RedPen は何も言わなくなる。

$ echo "これはうれしい" > sample.txt
$ redpen -c my-redpen-conf.xml sample.txt 2>/dev/null

設定ファイルのカスタマイズ

先ほどの例ではデフォルトの設定ファイルを使って文書をチェックした。 けど、もちろんどんなことをチェックしたいかは人だったり文書によって異なる。 そのため、どういったチェックをする・しないについて設定ファイルのカスタマイズが重要になってくる。

ちなみに、チェックできる内容の全ては公式ドキュメントを参照すると良い。

RedPen 1.10 ドキュメント

ただし、今回はその中の一部について紹介していく。

一行の長さをチェックする

例えば文章の一行の長さが長すぎると、どうがんばっても読みにくくなる。

一行の長さについては SentenceLength バリデータでチェックできる。 例えば、以下は一行の長さが 100 文字を超えると指摘するようにした場合。

$ grep -A 2 SentenceLength my-redpen-conf.xml
        <validator name="SentenceLength">
            <property name="max_len" value="100"/>
        </validator>

一行が 101 文字のテキストファイルを作ってみよう。

$ python -c "print('A' * 101)" > sample.txt
$ cat sample.txt
AAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAA

上記のファイルを RedPen にかけると ValidationError になる。

$ redpen -c my-redpen-conf.xml sample.txt 2>/dev/null
sample.txt:1: ValidationError[SentenceLength], The length of the sentence (101) exceeds the maximum of 100. at line: AAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAA

試しに上限を 120 文字に引き上げてみよう。

$ grep -A 2 SentenceLength my-redpen-conf.xml
        <validator name="SentenceLength">
            <property name="max_len" value="120"/>
        </validator>

今度は何も言われない。

$ redpen -c my-redpen-conf.xml sample.txt 2>/dev/null

読点の数をチェックする

読点がたくさんあるような文は、構造が複雑だったりして読みにくい場合がある。 こういった内容も RedPen でチェックできる。

$ echo "点が、一文に、いっぱい、あると、だめ" > sample.txt
$ redpen -c my-redpen-conf.xml sample.txt 2>/dev/null     
sample.txt:1: ValidationError[CommaNumber], The number of commas (4) exceeds the maximum of 3. at line: 点が、一文に、いっぱい、あると、だめ

読点の数は CommaNumber バリデータでチェックできる。

$ grep CommaNumber my-redpen-conf.xml 
        <validator name="CommaNumber"/>

不適切な言い回しをチェックする

こういった言い回しは文書に含めたくない、といったユースケースもある。 例えば汚い言葉やスラングとかね。

$ echo "罵詈" > sample.txt

そういったときは InvalidExpression バリデータを使う。 言い回しを設定するには二つの方法があって、例えば以下は設定ファイルにべた書きするときの例。 <property> タグの name 要素に list を指定して、value にカンマ区切りで言葉を入れていく。

$ grep -A 2 InvalidExpression my-redpen-conf.xml
        <validator name="InvalidExpression">
            <property name="list" value="罵詈,雑言" />
        </validator>

文章に指定した言葉が入っていると InvalidExpression になる。

$ redpen -c my-redpen-conf.xml sample.txt 2>/dev/null
sample.txt:1: ValidationError[InvalidExpression], Found invalid expression "罵詈". at line: 罵詈
sample.txt:1: ValidationError[JapaneseJoyoKanji], Found non-joyo kanji: "詈" at line: 罵詈

もう一つの指定方法を使うときは、改行区切りで言葉をリストアップしたテキストファイルを用意する。

$ cat << 'EOF' > ng-expressions.txt
罵詈
雑言
EOF

今度は、<property> タグの name 要素に dict を指定した上で value に上記テキストファイルの名前を指定する。

$ grep -A 2 InvalidExpression my-redpen-conf.xml    
        <validator name="InvalidExpression">
            <property name="dict" value="ng-expressions.txt" />
        </validator>

機能的には同じだけど、最初のやり方では言葉が多いときに設定ファイルが読みにくくなる。 基本的には後者を使った方が良いのかな。

$ redpen -c my-redpen-conf.xml sample.txt 2>/dev/null
sample.txt:1: ValidationError[InvalidExpression], Found invalid expression "罵詈". at line: 罵詈
sample.txt:1: ValidationError[JapaneseJoyoKanji], Found non-joyo kanji: "詈" at line: 罵詈

文章の揺れや望ましい表現がある言葉をチェックする

より適切な言い回しがあったり、複数の表記方法があるときに「揺れ」を防ぐには SuggestExpression バリデータを使う。

デフォルトではコメントアウトされている。

$ grep SuggestExpression my-redpen-conf.xml 
        <!--<validator name="SuggestExpression" />-->

使ってみることにしよう。 例として、場合によってはひらがなに開いたほうが良いとされる表現「更に」を含む文章を用意する。

$ echo "更に革新的な" > sample.txt

バリデータのコメントアウトを外して、「更に」は「さらに」が適切なんだよと次のように設定ファイルに記載する。

$ grep -A 2 SuggestExpression my-redpen-conf.xml
        <validator name="SuggestExpression">
            <property name="map" value="{更に,さらに}" />
        </validator>

すると RedPen が「こっちを使った方が良いよ!」と教えてくれるようになる。

$ redpen -c my-redpen-conf.xml sample.txt 2>/dev/null     
sample.txt:1: ValidationError[SuggestExpression], Found invalid word "更に". Use the synonym "さらに" instead. at line: 更に革新的な

こちらも、先ほどの InvalidExpression バリデータと同様に、上記の対応関係を外部のテキストファイルに記載できる。 このファイルでは、言い換える前の言葉を最初に入れて、タブで区切ってより適切な言葉を後ろに指定する。

$ cat << 'EOF' > suggest-expressions.txt 
更に  さらに
EOF

この通り外部のテキストファイルを使ってチェックできるようになった。

$ grep -A 2 SuggestExpression my-redpen-conf.xml
        <validator name="SuggestExpression">
            <property name="dict" value="suggest-expressions.txt" />
        </validator>
$ redpen -c my-redpen-conf.xml sample.txt 2>/dev/null
sample.txt:1: ValidationError[SuggestExpression], Found invalid word "更に". Use the synonym "さらに" instead. at line: 更に革新的な

まとめ

今回はオープンソースの文書校正ツール RedPen を使ってみた。 この記事で紹介したバリデータは機能のごく一部にすぎない。 また、今回は触れなかったものの RedPen は JavaScript を使って独自のバリデーションルールを作ることもできるらしい。

技術文書の校正は真面目にやるとかなり時間がかかる。 こういったツールを使うことで一次的な校正を手早く済ませることができると大幅な時間の節約になると思う。

Python: Twine を使って PyPI にパッケージをアップロードする

Python のサードパーティ製パッケージは、一般に PyPI (Python Package Index) というリポジトリに登録されている。 このリポジトリはユーザ登録さえすれば誰でも自分で作ったパッケージをアップロードできる。 今回は Twine というツールを使って PyPI にパッケージをアップロードしてみる。

PyPI - the Python Package Index : Python Package Index

使った環境は次の通り。

$ sw_vers
ProductName:    Mac OS X
ProductVersion: 10.12.6
BuildVersion:   16G1114
$ python --version
Python 3.6.3
$ twine --version
twine version 1.9.1 (pkginfo: 1.4.1, requests: 2.18.4, setuptools: 38.2.5,
requests-toolbelt: 0.8.0, tqdm: 4.19.5)

どうして Twine を使うのか

以前は PyPI にパッケージをアップロードするときにはセットアップスクリプト (setup.py) の upload コマンドを使うのが一般的だった。 ただ、このやり方だと古い Python ではプロトコルに HTTP が使われるためユーザ名やパスワードが平文でネットワークに流れてしまう。 また、プロトコルに HTTP over SSL/TLS を使っていても、証明書を検証していないと中間者攻撃のリスクがある。

Issue 12226: use HTTPS by default for uploading packages to pypi - Python tracker

そのため、プロトコルが HTTP over SSL/TLS でちゃんと証明書の検証までやってくれる Twine を使うことがセキュリティ的に望ましい。 また、ファイルをアップロードするときの使い勝手という点でも Twine の方が優れている点がある。

ちなみに Twine は PyPA (Python Packaging Authority) というワーキンググループがメンテナンスしている。 これは setuptoolspipvirtualenv といったパッケージ関連でデファクトなツールのメンテナンスをしているコミュニティ。

Python Packaging Authority — PyPA documentation

インストール

前置きが長くなったけど、ここからは Twine を実際に使っていく。

まずは Twine を pip を使ってインストールする。

$ pip install twine

PyPI にユーザ登録する

続いて PyPI にユーザ登録をする。 以下の Web サイトの「Register」からユーザ登録を完了しよう。

PyPI - the Python Package Index : Python Package Index

あるいは、新しい Web サイトの以下からでも良い。

PyPI - the Python Package Index · Warehouse (PyPI)

同時にテスト用の PyPI にも別途ユーザ登録しておこう。 こちらにも登録しておくとリリース作業の予行演習ができる。

PyPI - the Python Package Index : Python Package Index

テスト用の PyPI についても新しい Web サイトがある。

PyPI - the Python Package Index · Warehouse (TestPyPI)

設定ファイルを用意する (オプション)

必須ではないんだけど、設定ファイルを用意しておくとこれからの作業が捗る。 ホームディレクトリに .pypirc という名前でファイルを作っておくと Twine がデフォルトで読み込んでくれる。

書式はこんな感じ。 <your_username><your_password> の部分は、先ほど自分で登録したユーザ名とパスワードに置き換える。

$ cat << 'EOF' > ~/.pypirc 
[distutils]
index-servers =
  pypi
  pypitest

[pypi]
repository=https://upload.pypi.org/legacy/
username=<your_username>
password=<your_password>

[pypitest]
repository=https://test.pypi.org/legacy/
username=<your_username>
password=<your_password>
EOF

アップロードしたいパッケージを用意する

次は PyPI にアップロードしたいパッケージを用意する。 今回は自作パッケージの diagram-autobuild を例にして説明する。

github.com

パッケージをビルドする

用意ができたら、まずはアップロードしたいパッケージの成果物をビルドする。

例えばソースコード配布物をビルドするなら、次のようにセットアップスクリプトに sdist を指定する。

$ python setup.py sdist

Wheel パッケージなら bdist_wheel を指定する。

$ python setup.py bdist_wheel

するとプロジェクトの dist ディレクトリ以下に成果物ができる。

$ ls dist
diagram-autobuild-0.1.0.tar.gz               diagram_autobuild-0.1.0-py2.py3-none-any.whl

パッケージをアップロードする

あとは twine upload コマンドを使って dist ディレクトリ以下のアップロードしたいファイルを指定するだけ。 アップロード先は --repository オプションで指定する。 まずはテスト用の PyPI にアップロードして内容を確認しよう。

$ twine upload \
  --repository pypitest \
  dist/*

ちなみに、先ほどの設定ファイルを作っていない状態でテスト用の PyPI にアップロードしたいときは --repository-url を使えば良い。

$ twine upload \
  --repository-url https://test.pypi.org/legacy/ \
  dist/*

テスト用の PyPI に意図通りパッケージがアップロードできていることを確認しておこう。

diagram-autobuild · Warehouse (TestPyPI)

問題がなければ本番の PyPI にもリリースする。

$ twine upload \
  --repository pypi \
  dist/*

本番の PyPI にパッケージがアップロードできていることを確認しよう。

diagram-autobuild · Warehouse (PyPI)

最後に、ちゃんとアップロードしたパッケージを pip 経由でインストールできることを確認できたら作業はおわり。

$ pip install diagram-autobuild
$ pip list --format=columns | grep diagram-autobuild
diagram-autobuild 0.1.0  

めでたしめでたし。