32.7. tokenize
— Pythonソースのためのトークナイザ¶
ソースコード: Lib/tokenize.py
tokenize
モジュールでは、Python で実装された Python ソースコードの字句解析器を提供します。さらに、このモジュールの字句解析器はコメントもトークンとして返します。このため、このモジュールはスクリーン上で表示する際の色付け機能 (colorizers) を含む “清書出力器 (pretty-printer)” を実装する上で便利です。
トークン・ストリームの扱いをシンプルにするために、全ての 演算子 (operator) と デリミタ (delimiter) トークンはジェネリックな token.OP
トークンタイプとして返されます。正確な型は tokenize.tokenize()
が返す named tuple の exact_type
プロパティをチェックすれば解ります。
32.7.1. 入力のトークナイズ¶
第一のエントリポイントはジェネレータ(generator)です:
-
tokenize.
tokenize
(readline)¶ The
tokenize()
generator requires one argument, readline, which must be a callable object which provides the same interface as theio.IOBase.readline()
method of file objects. Each call to the function should return one line of input as bytes.このジェネレータは次の5要素のタプルを返します; トークンタイプ; トークン文字列; ソース内でそのトークンがどの行、列で開始するかを示す int の
(srow, scol)
タプル; どの行、列で終了するかを示す int の(erow, ecol)
タプル; トークンが見つかった行。 (タプルの最後の要素にある) 行は 論理 行で、継続行が含まれます。この5要素のタプルは named tuple として返され、フィールド名はtype string start end line
になります。The returned named tuple has an additional property named
exact_type
that contains the exact operator type fortoken.OP
tokens. For all other token typesexact_type
equals the named tupletype
field.バージョン 3.1 で変更: named tuple のサポートを追加。
バージョン 3.3 で変更:
exact_type
のサポートを追加。tokenize()
determines the source encoding of the file by looking for a UTF-8 BOM or encoding cookie, according to PEP 263.
token
モジュールの全ての定数は tokenize
モジュールからも公開されており、加えて次の3つトークンタイプが公開されています:
-
tokenize.
COMMENT
¶ コメントであることを表すために使われるトークン値です。
-
tokenize.
NL
¶ 終わりではない改行を表すために使われるトークン値。NEWLINE トークンは Pythonコードの論理行の終わりを表します。NLトークンはコードの論理行が複数の物理行にわたって続いているときに作られます。
-
tokenize.
ENCODING
¶ Token value that indicates the encoding used to decode the source bytes into text. The first token returned by
tokenize()
will always be an ENCODING token.
もう一つの関数がトークン化プロセスを逆転するために提供されています。これは、スクリプトを字句解析し、トークンのストリームに変更を加え、変更されたスクリプトを書き戻すようなツールを作成する際に便利です。
-
tokenize.
untokenize
(iterable)¶ トークンの列を Python ソースコードに変換します。 iterable は少なくとも二つの要素、トークンタイプおよびトークン文字列、からなるシーケンスを返さなければいけません。 その他のシーケンスの要素は無視されます。
再構築されたスクリプトは一つの文字列として返されます。得られる結果はもう一度字句解析すると入力と一致することが保証されるので、変換がロスレスでありラウンドトリップできることは間違いありません。この保証はトークン型およびトークン文字列に対してのものでトークン間のスペース (コラム位置)のようなものは変わることがあり得ます。
It returns bytes, encoded using the ENCODING token, which is the first token sequence output by
tokenize()
.
tokenize()
needs to detect the encoding of source files it tokenizes. The
function it uses to do this is available:
-
tokenize.
detect_encoding
(readline)¶ The
detect_encoding()
function is used to detect the encoding that should be used to decode a Python source file. It requires one argument, readline, in the same way as thetokenize()
generator.readline を最大2回呼び出し、利用するエンコーディング (文字列として) と、読み込んだ行を (bytes からデコードされないままの状態で) 返します。
UTF-8 BOM か PEP 263 で定義されている encoding cookie からエンコーディングを検出します。BOMと cookie の両方が存在し、一致していない場合、 SyntaxError 例外を発生させます。 BOM が見つかった場合はエンコーディングとして
'utf-8-sig'
が返されます。エンコーディングが指定されていない場合、デフォルトの
'utf-8'
が返されます。Use
open()
to open Python source files: it usesdetect_encoding()
to detect the file encoding.
-
tokenize.
open
(filename)¶ detect_encoding()
を使って検出したエンコーディングを利用して、ファイルを読み込み専用モードで開きます。バージョン 3.2 で追加.
-
exception
tokenize.
TokenError
¶ docstring や複数行にわたることが許される式がファイル内のどこかで終わっていない場合に送出されます。例えば:
"""Beginning of docstring
もしくは:
[1, 2, 3
閉じていないシングルクォート文字列は送出されるべきエラーの原因とならないことに注意してください。それらは ERRORTOKEN
とトークン化され、続いてその内容がトークン化されます。
32.7.2. コマンドラインからの使用¶
バージョン 3.3 で追加.
tokenize
モジュールはコマンドラインからスクリプトとして実行することができます。次のようにシンプルに利用できます:
python -m tokenize [-e] [filename.py]
以下のオプションが使用できます:
-
-h
,
--help
¶
このヘルプメッセージを出力して終了します
-
-e
,
--exact
¶
exact type を使ってトークン名を表示します
filename.py
が指定された場合、その内容がトークナイズされ stdout に出力されます。指定されなかった場合は stdin からトークナイズします。
32.7.3. 使用例¶
スクリプト書き換えの例で、浮動小数点数リテラルを Decimal オブジェクトに変換します:
from tokenize import tokenize, untokenize, NUMBER, STRING, NAME, OP
from io import BytesIO
def decistmt(s):
"""Substitute Decimals for floats in a string of statements.
>>> from decimal import Decimal
>>> s = 'print(+21.3e-5*-.1234/81.7)'
>>> decistmt(s)
"print (+Decimal ('21.3e-5')*-Decimal ('.1234')/Decimal ('81.7'))"
The format of the exponent is inherited from the platform C library.
Known cases are "e-007" (Windows) and "e-07" (not Windows). Since
we're only showing 12 digits, and the 13th isn't close to 5, the
rest of the output should be platform-independent.
>>> exec(s) #doctest: +ELLIPSIS
-3.21716034272e-0...7
Output from calculations with Decimal should be identical across all
platforms.
>>> exec(decistmt(s))
-3.217160342717258261933904529E-7
"""
result = []
g = tokenize(BytesIO(s.encode('utf-8')).readline) # tokenize the string
for toknum, tokval, _, _, _ in g:
if toknum == NUMBER and '.' in tokval: # replace NUMBER tokens
result.extend([
(NAME, 'Decimal'),
(OP, '('),
(STRING, repr(tokval)),
(OP, ')')
])
else:
result.append((toknum, tokval))
return untokenize(result).decode('utf-8')
コマンドラインからトークナイズする例。次のスクリプトが:
def say_hello():
print("Hello, World!")
say_hello()
トークナイズされて次のような出力になります。最初のカラムはトークンが現れた行/カラム、次のカラムはトークンの名前、最後のカラムは (あれば) トークンの値です
$ python -m tokenize hello.py
0,0-0,0: ENCODING 'utf-8'
1,0-1,3: NAME 'def'
1,4-1,13: NAME 'say_hello'
1,13-1,14: OP '('
1,14-1,15: OP ')'
1,15-1,16: OP ':'
1,16-1,17: NEWLINE '\n'
2,0-2,4: INDENT ' '
2,4-2,9: NAME 'print'
2,9-2,10: OP '('
2,10-2,25: STRING '"Hello, World!"'
2,25-2,26: OP ')'
2,26-2,27: NEWLINE '\n'
3,0-3,1: NL '\n'
4,0-4,0: DEDENT ''
4,0-4,9: NAME 'say_hello'
4,9-4,10: OP '('
4,10-4,11: OP ')'
4,11-4,12: NEWLINE '\n'
5,0-5,0: ENDMARKER ''
トークンの exact_type 名は -e
オプションで表示できます:
$ python -m tokenize -e hello.py
0,0-0,0: ENCODING 'utf-8'
1,0-1,3: NAME 'def'
1,4-1,13: NAME 'say_hello'
1,13-1,14: LPAR '('
1,14-1,15: RPAR ')'
1,15-1,16: COLON ':'
1,16-1,17: NEWLINE '\n'
2,0-2,4: INDENT ' '
2,4-2,9: NAME 'print'
2,9-2,10: LPAR '('
2,10-2,25: STRING '"Hello, World!"'
2,25-2,26: RPAR ')'
2,26-2,27: NEWLINE '\n'
3,0-3,1: NL '\n'
4,0-4,0: DEDENT ''
4,0-4,9: NAME 'say_hello'
4,9-4,10: LPAR '('
4,10-4,11: RPAR ')'
4,11-4,12: NEWLINE '\n'
5,0-5,0: ENDMARKER ''