from nltk.tokenize import PunktSentenceTokenizer text = "私はPythonを学んでいます。NLTKは便利なツールです。" tokenizer = PunktSentenceTokenizer() sentences = tokenizer.tokenize(text) for sentence in sentences: print(sentence)
私はPythonを学んでいます。 NLTKは便利なツールです。Punktセンテンストークナイザは、テキスト処理や自然言語処理のタスクにおいて、文の分割を容易にする手法として広く使われています。