示例#1
0
 def test_thai2vec(self):
     self.assertGreaterEqual(word_vector.similarity("แบคทีเรีย", "คน"), 0)
     self.assertIsNotNone(word_vector.sentence_vectorizer(""))
     self.assertIsNotNone(
         word_vector.sentence_vectorizer("เสรีภาพในการชุมนุม"))
     self.assertIsNotNone(
         word_vector.sentence_vectorizer("เสรีภาพในการรวมตัว\nสมาคม",
                                         use_mean=True))
     self.assertIsNotNone(
         word_vector.sentence_vectorizer("I คิด therefore I am ผ็ฎ์"))
     self.assertIsNotNone(
         word_vector.most_similar_cosmul(["สหรัฐอเมริกา", "ประธานาธิบดี"],
                                         ["ประเทศไทย"])[0][0])
     self.assertEqual(
         word_vector.doesnt_match(["ญี่ปุ่น", "พม่า", "ไอติม"]), "ไอติม")
示例#2
0
 def test_thai2vec(self):
     self.assertGreaterEqual(word_vector.similarity("แบคทีเรีย", "คน"), 0)
     self.assertIsNotNone(word_vector.sentence_vectorizer(""))
     self.assertIsNotNone(word_vector.sentence_vectorizer("เสรีภาพในการชุมนุม"))
     self.assertIsNotNone(
         word_vector.sentence_vectorizer("เสรีภาพในการรวมตัว\nสมาคม", use_mean=True)
     )
     self.assertIsNotNone(
         word_vector.sentence_vectorizer("I คิด therefore I am ผ็ฎ์")
     )
     self.assertIsNotNone(
         word_vector.most_similar_cosmul(
             ["สหรัฐอเมริกา", "ประธานาธิบดี"], ["ประเทศไทย"]
         )[0][0]
     )
     self.assertEqual(
         word_vector.doesnt_match(["ญี่ปุ่น", "พม่า", "ไอติม"]), "ไอติม"
     )