著者
成松 宏美 杉山 弘晃 菊井 玄一郎 平 博順 的場 成紀 東中 竜一郎
出版者
一般社団法人 人工知能学会
巻号頁・発行日
pp.3C4J901, 2019 (Released:2019-06-01)

我々は,「ロボットは東大に入れるか?」プロジェクトにおいて英語問題に取り組んでいる.本稿では,不要文除去問題に着目し,本問題に対して,近年あらゆるタスクで最高スコアを達成したBERTを適用する.BERTをどのように解法に適用するかを紹介し,ベースラインを超えて最高スコアに到達したことを示す.さらに,エラー分析により,BERTでできていないことを明らかにする.

言及状況

外部データベース (DOI)

Twitter (25 users, 38 posts, 38 favorites)

東ロボ英語チームがどうやって長文読解を克服したかは、論文をふつうに読めばわかることですので、公開されている論文をお読みください。 https://t.co/rkQSdAw4Hp
複数文問題の不要文除去問題で、正解率45.7%から正解率62.8%まで向上している(RACEデータセットとBERTを利用) 論文: センター英語試験の不要文除去問題に対するBERTの 適用方法の検討 https://t.co/PKRXgpGBfG
複数文問題の不要文除去問題で、正解率45.7%から正解率62.8%まで向上している。 論文:https://t.co/PKRXgpoZR6
2016年 ①はほぼ解けるようになったが、②と③がほとんど解けなかった 現在(2019年8月1日) ②の意見要旨把握問題で、正解率30%から正解率68%まで向上してる。 論文:https://t.co/OK4WHKOTOc ②の不要文除去問題で、正解率45.7%から正解率62.8%まで向上してる。 論文:https://t.co/PKRXgpoZR6
知られざる東ロボくんの真実(その2) 人工知能学会全国大会論文集 センター英語試験の不要文除去問題に対するBERTの適用方法の検討 https://t.co/PKRXgpoZR6 「本研究では、RACEデータセットの本文部分を用いる」 Word2vec → 45.7% BERT → 62.8% RACEでBERTを圧倒するXLNet登場 ←new
東ロボの英語、また正解率が上がってる。2016年の結果が限界じゃなかったことが明らかになってるな。これで意見要旨把握問題と不要文除去問題で正解率が上がってる。 人工知能学会全国大会論文集 センター英語試験の不要文除去問題に対するBERTの適用方法の検討 https://t.co/3Vsne6XRPe https://t.co/5HEJVq64sK

収集済み URL リスト