タグ別アーカイブ: 心理言語

何の役に立つのかは教員が語らなくてもいいのかも

はじめに

学部の講義科目,「何の役に立つの?」と思われるって自分で思い込んでたけど,その問いは学生が自分たちで自分の日々の経験や他の授業で学んだことと関連付けて答えを出そうとしてくれていることを,毎週のリアクションペーパー(以下,リアぺ)を読んでると感じます。
こちらが,「この話はこういう点で役に立つよ」なんて言わなくてもいいのかもしれないなと。

教員と学生が一緒に作る授業

そのことを,教員の責任を放棄してるとか,学生頼みとか考える人ももしかしたらいるのかもしれませんが,私は授業は教員が一方的に学生に知識を授けるものではなくて,教員と学生が一緒に作っていくものだと思っています。そういう意味では,その理想に近いのかなと。

指示しなくても,学生は自然と

しかも,私は学生に,この授業が何の役に立つか考えなさいとか,自分の経験に照らし合わせて考えなさいとか,そういう指示は出していません。そういう指示は出さなくとも,学生は自然と自分がした経験や考えたことと授業で扱ったことを関連づけようとしています。「私が経験したあの出来事は,もしかして今日の授業のこの説明が当てはまるんじゃなかろうか」とか,自分で思考を深めたり,問いを導き出していったり。
もちろん,そういった書き込みの中に,本当は自分で考えていなくて,生成AIで書いたようなことももしかすると含まれているのかもしれないし,それはもうわからないのでなんとも言えません。でも,そうは思えないコメントがたくさんであることは間違いないと自分では思っています。

「学の実化」は学生がもたらすもの

私はずっと,自分が研究していることは現実世界に直接的に役に立たないとか,現実世界の問題を直接的に解決するようなものではないと思っていました。最近,研究と社会との関わりについて考えさせられるポストも目にしました。


少なくとも授業という文脈では,私の所属先である関西大学が掲げる「学の実化」というものは,教員が学生に与えるようなものではなく(そういう場合もあるのでしょうが),むしろ学生の側が主体的に,「私が今学んでいることは,私の生きている人生や,この社会にどう関係しているのだろうか」ということを考えることによってもたらされるのかなと最近は思います。
私の授業はそうやって受けるものなのだということを明示的に指示しなくても,外国語学部の学生が主体的に,そして自然とそのような姿勢で授業を受けてくれていることに,私は感銘を受けています。そして,その事でとても誇らしい気持ちになると同時に,彼らがきっと,それぞれの場所で今も,そしてこれからも輝きをはなってくれるに違いないという確信めいたような気持ちになります。

なにをゆう たむらゆう。

おしまい。

jsPsychで自己ペース読み課題を作りました

はじめに

querie.meで次のような質問をいただいたのがきっかけで,この記事を書いています。ただ,今回は直接的な回答をブログ記事にしたというわけではありません。

Jspsychで自己ペース読解を作りたいと思っているのですが、なかなか良いリソースにたどり着けません。 何を参考にして作成されましたか。

https://querie.me/answer/FoiIeOGRo0FxWcSAnwvx

参考までに,私が作ったものを公開しましたというお話です。

jsPsychというJavaScriptのライブラリを使って,Webブラウザ上で実験を行うことができます。私もコロナ禍以降,オンラインでできる実験プログラムの構築を色々と模索していて,様々なものに手を出したりしたのですが,最終的にはjsPsychでいくことにしました。特に理由はないんですが,コードベースだとやっぱり細かいところに手が届くっていうのが大きいかなと思います。心理学分野だと,心理学の様々な実験のサンプルを見ることができるのですが,残念ながら言語実験はあまりサンプルがないんですよね。そこで,jsPsychで私が作った自己ペース読み課題をGitHubに公開しました。

https://github.com/tam07pb915/spr-jspsych-experiment

詳しくはこのレポジトリを見てもらえたらと思いますが,補足的なことをこのブログ記事にも書いておこうと思います。

メインの部分

自己ペース読み課題にはいろいろなバージョンがありますが,私が作ったのは単語提示・移動窓方式と呼ばれるもので,一語ずつ,左から右に読み進めるタイプのものです。以下のリンクから短いデモができます。

https://tamura-jspsych-demo.netlify.app/spr-demo.html

自己ペース読み課題のトリッキーなところは,刺激は文として作るけれども,それを単語に分割して提示するっていう部分なんですよね。その仕組みのところは,

Week 4 practical | Online Experiments for Language Scientists

というページがかなり参考になりました。これをベースに,ChatGPTやClaudeに手伝ってもらいながらカスタマイズをしたという感じです。Githubには,私が実際のデータ収集に使ったフル実験のバージョンと,上のリンク先のデモ課題の2つを載せています。フル実験の方には,単なる自己ペース読み課題だけではなく,同意取得や質問紙のページがあったりします。また,異なるリストのランダム化や,途中で休憩を挟む,プログレスバーを入れる等々の違いがあります。

基本的には,

  1. 下線のみが画面に提示される
  2. スペースキーを押すと下線の1つが単語に変わる
  3. スペースキーを押して読み進めると,読んだ単語はまた下線に戻る
  4. 最後までいくと,次の画面でTrue/Falseの理解質問が出るので,FまたはJキーで回答する
  5. 試行と試行の間には「スペースキーを押して次にいってください」みたいな文言がある

という流れで進むようになっています。フル・サンプルのどちらにも練習セクションとメインタスクセクションがあり,練習セクションでは理解質問の回答に対して,CORRECT/INCORRECTのフィードバックがあります。メインタスクセクションではフィードバックはありません。

少しコードをいじれば、任意の記号(例えば”|”)で区切られた英文をその区切りごとに例えばフレーズ単位で提示することもできると思います。

全体的なこと

Firebaseとの連携

私は実験をfirebaseと連携させて,そこにデータを蓄積するという感じでデータ収集をしています。よって,firebaseと連携するための仕組みもコードの中に入っています。ただ,firebaseをどう使うのかみたいなところはウェブ上にたくさん資料が転がっているので,それを見て自分で勉強してみてくださいという感じにすみませんが今のところはなっています。

データ分析

jsPsychで得られたデータはJSONフォーマットになっています。これはそのままではデータ分析に適していないので,JSONデータをテーブルデータに変換する必要があります。これはそこまで難しくなくて,オンライン上でフォーマットを変換してくれるサービスもありますし,今なら生成AIに頼んだら多分やってくれる(またはコードを提案してくれる)と思います。とはいっても,その部分も結構大事ではあるので,一応サンプルの出力をRで読み込んで整形する過程もRmarkdownでドキュメントにしました。下記リンクからご覧いただけます(もとの.Rmdも含めてGithubのレポジトリに入ってます)

https://tam07pb915.github.io/spr-jspsych-experiment/sample-experiment/sample-data-transformation.html

使っている刺激

フル実験のメインタスク部分は,number attractionを見るための刺激文が入っていて,私の自作です(まだ発表すらできていないデータ…)。サンプルの方は,下の論文の実験1に使われた英文の一部を使っています。

Trueswell, Tanenhaus, & Garnsey (1994) Semantic influences on parsing: Use of thematic role information in syntactic ambiguity resolution. Journal of Memory and Language, 33(3), 285-318. https://doi.org/10.1006/jmla.1994.1014

理解質問は自作です(Copilotが勝手にサジェストしたものを使いました)。

刺激はコードの中に埋め込まず,別ファイルで用意してそれを読み込むという方法もあると思います。しかしながら,今回はすべてコードの中に刺激を埋め込む形にしています。Excelファイルで一般的には実験刺激は管理されるでしょうから,そこからjsPsychで扱われる形式への変換が必要です。これもおそらくはそこまで難しいことではないと思いますが,いずれRの例を作ろうと思っています。

注意点

私が公開したコードを,様々な実験に応用しようとすると,刺激の部分を入れ替えるだけではおそらくうまく動かないと思います。というのは,読み込んだ刺激の形に応じて,記録されるデータを選択しているからです。例えば,サンプルの実験では,実験要因として主語名詞句の有生性しか入れていません。1要因の実験というわけです。よって,そのサンプルコードを使って2要因以上の実験を行おうとすると,記録されるデータに反映されない要因が出てくることになります。もちろん,事後的に復元することは可能ではありますが。そのあたり,ここをいじったらここも必ず変えてねみたいな丁寧なコメントアウトまでは残念ながらできていません。ご了承ください。汎用性を意識してどんどん機能を追加して選べるようにするみたいなのはちょっと素人の私には難しいです。

おわりに

この記事では,心理言語実験で使う自己ペース読み課題のプログラムをjsPsychで実装して、GitHubに公開しましたという記事を書きました。冒頭の質問者様の役に立ちますように。自己ペース読みよりロジックは簡単ですが,プライミング語彙性判断課題のプログラムも手元にあるので,反響があればまた公開しようと思います。

なにをゆう たむらゆう。

おしまい。

概念数の処理に関する論文が出ました

下記の論文が,First Viewで公開されました。論文がDLできない方は,著者用のリンクをお送りするのでご連絡ください。

TAMURA, Y., FUKUTA, J., NISHIMURA, Y., HARADA, Y., HARA, K., & KATO, D. (2018). Japanese EFL learners’ sentence processing of conceptual plurality: An analysis focusing on reciprocal verbs. Applied Psycholinguistics. Advance Online Publication. doi:10.1017/S0142716418000450

名古屋大学大学院のD2のときに院生仲間と一緒にやった研究です。初めて国際誌に投稿した論文なので,概要と投稿の経緯を書いて置こうと思います。

概要

ざっくりとした結論は以下のような感じです。

  • 日本語を第一言語とする英語学習者も,英語母語話者と同じようにA and Bという名詞句を概念的に複数として表象していて,その複数を構成する要素にもアクセス可能
  • ただし,the parentsのように複数の構成素が明示的でない場合にはその構成素にアクセスできない(母語話者もできないと先行研究で言われています)

具体的な実験では,次の4条件における下線部の単語単位での読解時間を比較して,aではガーデンパスに引っかかることなく読んでいるという結果になりました。

a. As the mother and the father battled the child played the guitar in the room.

b. As the parents battled the child played the guitar in the room.

c. As the mother and the father left the child played the guitar in the room.

d. As the parents left the child played the guitar in the room.

battleのような相互作用動詞が目的語を取らないという解釈にいたるためには,主語が複数である必要があります。その時には相互作用動詞の後ろの名詞句は主節の主語として解釈され,ガーデンパスを回避できるということです。4条件作っているのは,(a) A and B(conjoined NP)とthe parentsのようなplural definite descriptionを比較したこと,(b) 動詞のバイアスの影響ではないことを示すために自動詞と他動詞の両方が解釈として可能な動詞の条件も用意し,その場合にはガーデンパスを回避することができないことを示す必要がある,という2点が理由です。

出版までの経緯

冒頭にも書いたように,この論文はD2のときにデータ収集を行い,その年の全国英語教育学会熊本大会で発表を行いました。その後,論文の形にして最初に投稿したのがその年度の終わりの2016年3月でした。

最初の投稿

まず,Bilingualism: Language and Cognitionに出しました。そこでは,査読に回る前に,「母語話者と比較してないからだめ」という理由で突っぱねられましたが,「母語話者のデータがなくともこの実験の結果のみで十分に価値がある」という長めのメールを送り,いくつかの修正条件を提示されたのでその修正をし,最初の投稿から1ヶ月後くらいに再投稿しました。査読に周り,再投稿時点から2ヶ月たってreject通知をもらいました。とにかく,コメントの鋭さが今までに経験したことのないもので,すごくショックを感じるとともに,これをもとに修正したらもっと良くなるに違いないとも思えました。

二回目の投稿

大幅な書き直しが必要で,イントロ,バックグラウンド,ディスカッションとほぼすべて書き換えました。そして,2017年2月に今度はLinguistic Approaches to Bilingualismというところに出しました。外部査読に回るまでが1ヶ月,外部査読に回ってからは3ヶ月で結果が来たので,投稿から最初の結果がわかるまでは4ヶ月でした。そして,またrejectでした。

正直,査読者のコメントはそこまで批判的ではなく,3人いるすべての査読者が好意的なようでしたし,コメントも対応可能なものが多かったです。それでもrejectだったので,Editorに抗議するか迷いました。しかし,私の副査であったM先生に相談したところ,抗議しても結果が変わる可能性は限りなく低いので,もっと別の雑誌に投稿するほうが良いというアドバイスをいただきました。印象に残っているのは,「IFが低いジャーナルが必ずしも通りやすいジャーナルではない」という言葉でした。

三回目の投稿

この時点で,私自身は割と自信を失いかけていましたが,第二著者の福田さんが,「この研究は絶対に面白いから,Applied Psycholinguisticsに出してみよう」と提案してくれました。私は,「それは無理じゃないか…」と思っていたのですが,あきらめずにやることにしました。二回目の投稿でもらったコメントも,論文の質を上げることにとても役に立ちました。三回目に投稿するときには,ほとんど穴という穴は塞いだ状態で投稿することができましたし,論の流れもだいぶすっきりしたものになったと自分でも思えました(それでも今読み返せばまだまだだなと思います)。

Applied Psycholinguisticsに投稿したのが2018年の1月初旬で,約2ヶ月後の3月上旬に結果が来ました。Major Revisionでした。3人のレビュワーのコメントはマイナーなものがほとんどで,1回目,2回目の投稿のときの半分くらいのコメントしかなかったと思います(1度目,2度目は計50近くコメントあったと思います)。結果のわかったタイミングが年度末で私も何かと忙しかったのもあり,修正にまったく手をつけられませんでした。期限ギリギリのGWにようやく修正原稿を提出し,その1ヶ月後の6月上旬にMinor revisionという結果がきました。3人のうち1人のレビュワーが細かい修正を指摘してきたので,その点を直し,2週間後に提出しました。最初は注が11くらいあって,さらには語数が制限ギリギリだったので,注を削って語数の範囲内に収めるのに苦労しました。このジャーナルでの3回目の投稿から2週間後の7月上旬に採択通知が来て,それからは書類を出したり校正を受けたりしました。

感想

本当は,大学院生のうちに私も国際誌に出したいと思っていたのですが,それは結局叶えられませんでした。国際誌にこだわったというのは,心理言語学系では国際誌のほうが選択肢が多かったからというのがあります。また,どんどんチャレンジしていこうという雰囲気が私の周りだけでなく色々なところにあったことも理由でした。そういう意味では,この時代だったから出版された論文でもあると思っています。環境が少しでも違えば,出版を諦めていたか,全く別の形で出版されることになったと思います。

結果的に,自分の専門を語るときに使う,「心理言語学」という言葉の入ったジャーナルに論文が出たことはよかったのかなと思います。心理言語的なアプローチをする先輩は名大にもたくさんいらっしゃるので,その先輩たちに追いついてそして追い越したいという思いもありました。

時間はかなりかかってしまいましたが,時間をかけて査読のプロセスを経たことで最初の原稿よりはいいものになったなと思っています。もちろん,これからたくさん批判を受けることでしょうが,それもまた自分の研究をより良くするために大事なプロセスだと自分に言い聞かせています。

最後に

私は,実は名古屋大に在籍した4年間で,私が第一著者,福田さんが第二著者という論文を出したことがありませんでした(逆は1つあります)。彼とはずっと一緒に長く研究をやってきていたので,今回の論文でようやく私が第一著者で二人の名前が載った論文が出せてよかったなと思います。これからもがんばります。

なにをゆう たむらゆう。

おしまい。

Visual World Paradigmの分析

だいぶ前に書きかけで放置していた記事の更新です。

7月1日,2日で言語科学会に行ってきました。心理言語系の発表が多く,講演やシンポジウムでの発表も含めて,Visual World Paradigm(以下,VWP)という手法を用いた研究が結構ありました。このVWPは,ざっくりいうと主に音声で言語刺激を与え,それを処理している最中の実験参与者の視線を計測するという手法です。このとき,参与者は主に視覚提示されたいくつかの絵や写真を見ています。そこで,どこをどれくらい見ているか,あるいはどのタイミングでどこに目線がいきやすくなるのかを観察することで,人間の言語処理の仕組みを明らかにしようとするわけです。

で,そこですごく気になったのが分析方法。普通の文処理中の視線計測実験では,文のどこ(どの単語,句)をどれくらい見ているかなどを分析しますが,VWPでは音声データが流れていく時間の経過とともに変化する視線の動きを追っているわけで,時系列データになります。文であれば,画面上に1行で提示できるほどの長さが限界ですので,多くとも10-15語程度,その中で,分析の対象となる区域は2-3程度だと思います(注1 )。

ところが,VWPの人たちってまずこの区切り方がめちゃっくちゃ恣意的だったりします。それでもって,25msとか50msごとにグラフに点を売ったりしているわけです(eg., Ito et al., 2017, BLC)。え?待って?てことは50msごとにモデル作ってそれぞれで「検定」っぽいことしているわけ?LME(GLMM)使ってるからどうのこうのとか言う問題じゃなく,その分析の仕方っておかしくないですか?要するにt検定を数十回繰り返しているのと同じわけで,そんなことしたら第1種の過誤が飛躍的に上昇してしまうはずですよね(注2)?

たまたまBLCで見つけたので他意はまったくないのですが,Ito et al. (2017)ではその部分に対して以下のような記述があります。

This way of analysing the time-course increases the likelihood of Type I errors, but we note that the differences reported below show consistently reliable effects over multiple bins.

確かに論文中の図をみると,条件ごとの傾向がかなりはっきり出ているわけですが,だからといってそんな50msごとに「有意!有意!」みたいなことやるのは正当化されないでしょう。だって,繰り返しが多いので有意水準をめちゃくちゃ保守的にしますなんてことはやってなくて,t値が2超えたら有意ってことでいくんでよろしくとかやってるのですから。

VWPは手法としてはすごく面白いのだけれど,分析の手法が全然追いついていないのではないかというような印象です。このパラダイムで分析をしていくためにはもともとの注視時間のデータを割合にする(つまりある単位で区切ったときに,その単位時間のなかでどの領域をどれほどの割合で注視しているかというデータにしている)ということがおそらく不可欠だからかもしれません。そうではないと,視線計測の時系列データから興味関心のあるデータをうまく取り出すことができないからです。もっといい方法ないのかなと思うのですが…

もし仮に単位時間を恣意的に設定して「観測点」のように捉えることは出発点としてOKだとしても,それはやっぱり時系列データ分析の手法を持ってくるほうがいいように思います。以下の記事のような考え方です。

二つの時系列データの間に「差」があるか判断するには

自分でこの時系列のデータ分析を実装する技術を持ち合わせているわけではないのですが(そもそも視線計測のデータセットを見たことがないのであまりイメージも浮かばない),誤差による上下動があるなかでの特定の条件での「変化点」を検知したり,あるいは区域ごとではなく「全体として」プロセスが異なることを分析するような考え方ができたらいいのではと思います。区域ごとに区切って分析するとはいえ,前の状態の影響を一切受けずに次の状態が決まるわけではなく,前の状態があるから次の状態に移行するわけで。たぶんこれって視線計測装置とか文処理にかぎらず,時系列になっている(観測点が時系列上に複数並ぶ)データに対してはすべて当てはまると思うんですよね。longitudinal studyとかも含めて。

私も結局はエンドユーザーなので,自分がそういうデータセットを前にしたときにうまく分析して解釈できる自信があるというわけではないのですが,なんかもやもやするなぁと思いながらずっと発表を聞いていたのでした。

なにをゆう たむらゆう。

おしまい。

 

注1. もっと解像度の低い視線計測装置だとヒートマップみたいなもので視覚的にどの辺を多く見ていたかとかやることもあるかと思います。パッセージ読んでるときの視線とか。

注2. これはもちろん自己ペース読み課題の分析にも当てはまるのでブーメランです。