• last updated : 11 November, 2022

XLSCOUTが特許パラバートベースのノベルティチェッカーをリリース

Category: Press Release
Novelty Checker

XLSCOUTは誇らしげに、AIとMLを利用してファーストパスの先行技術分析を提供するツールである「特許ParaBERT」ベースのノベルティチェッカーのリリースを発表しました。

特許ParaBERTによる先行技術分析:

XLSCOUTは独自の「特許ParaBERT」技術を立ち上げ、先行技術検索のためにさまざまなマルチドメイン技術データセットで、すでに訓練された最先端のBERTモデルを微調整しました。この技術は、XLSCOUTが特許文献から自然言語テキストを理解するのに役立ちます。ノベルティチェッカーは、この微調整された特許ParaBERTモデルを使用して、より正確な結果を提供するために、特許文献の各段落のコンテキストを理解します。その結果、ドキュメントの類似性チェックが大幅に改善され、さらに、Novelty Checkerアプリは高品質の先行技術検索レポートを生成できるようになりました。

従来の特許検索ツールはすべてブールキーワードベースの検索を使用しており、多くのノイズや無関係な特許結果をキャプチャします。XLSCOUT “Patent ParaBERT”技術は、関連する特許を見つけ、ノイズをフィルタリングするのに役立つだけでなく、同時に、ドメイン内の関連出版物も検索します。IEEEScopusSpringer、Pubmedなどの出版物が検索され、入力されたアイデアとリアルタイムで比較されます。特許文献データには、USPTO特許データ韓国特許庁データ日本特許庁データ欧州特許データ台湾特許データインド特許データ、および英語に翻訳されたテキストを持つ100以上の他の国が含まれます。

精度チェック:

その結果を、多くの無料の特許検索ツールや、セマンティック検索を主張する他のさまざまな特許検索ツールと比較しました。結果の質に大きな違いが見つかりました。ノベルティチェッカーは、競合他社のツールよりも45%効果的であることがわかりました。

  • 市場で入手可能な他の競合ツールと比較して、45%多くの関連性の高い結果が取得されました
  • ノベルティチェッカーのトップ20の参照はノイズフリーでした(ドメイン内の90%以上の結果)
  • 審査官の65%が引用文献をノベルティチェッカーで発見しました

バートとは何ですか?

BERT、自然言語処理(NLP)に関連するディープラーニングアルゴリズムは、トランスフォーマーからの双方向エンコーダ表現の略です。これは、すべてのニュアンスを考慮しながら、文中の単語のコンテキストをキャプチャするのに役立ちます。

BERT モデルはディープラーニングモデルで、マスクされた言語モデリングと次の文の予測と呼ばれる 2 つの興味深いタスクを使用して、巨大なコーパスで事前トレーニングされています。このモデルは、文中の単語のコンテキストをキャプチャしながら、そのニュアンスをすべて考慮するのに役立ちます。

BERTは、質問応答、テキスト生成、文の分類など、多数のNLPタスクに対してより良い結果を生み出すことで、NLPの分野で大きな進歩を遂げました。その魅力に影響を与える重要な要素の1つは、コンテキストに欠けるword2vecのような他の好まれる埋め込みモデルとは対照的に、コンテキストベースの埋め込み戦略です。

Mediumは、次の例を考慮して、コンテキストベースのモデルの機能を強調します。

文A:彼はPythonに噛まれた。

文B:Pythonは私の好きなプログラミング言語です。

両方のステートメントを比較すると、”Python” という用語がそれぞれに異なる意味合いを持つことは明らかです。ステートメント A の “Python” はヘビを指していますが、文 B の “Python” はプログラミング言語を指します。

word2vec のような埋め込みモデルを使用すると、”Python” という単語は両方のステートメントに同じ埋め込みを持ち、両方の文で単語の意味をレンダリングします。これは、word2vec がコンテキストフリーモデルであるという事実によるものです。コンテキストに関係なく、”Python” という単語に対して同じ埋め込みが生成されます。

逆に、Bert はコンテキストベースのモデルです。コンテキストを理解し、コンテキストに基づいて単語の埋め込みを生成します。したがって、前の2つの単語では、 “Python”という単語に対して異なる埋め込みが行われます。したがって、前の単語の “Python” という単語に明確な埋め込みを提供します。

BERT はどのように機能しますか?

この場合、A. Bertは、文中の他のすべての単語に関連付けることによって、各単語を文脈化します。これにより、バートは「パイソン」という言葉がヘビを指していることを理解することができます。同様に、文BのBertは、「Python」という言葉がプログラミング言語を指していることを理解しています。

BERT は間違いなく最も先進的な NLP モデルの 1 つであり、NLP 空間に革命をもたらし、コンテキストの理解を次のレベルに引き上げました。

特許ParaBERTベースのノベルティチェッカーの詳細については、今すぐ無料デモをスケジュールしてください!