カテゴリー別アーカイブ: 研究

英語教育実践セミナー@CELES2017長野大会

2017年6月24-25日に長野県の信州大学で開催される第47回中部地区英語教育学会長野大会の,英語教育実践セミナーでお話させていただく機会をいただきました。この企画は,中部地区英語教育学会長野支部の特別企画だそうで,なんと私の出るセミナーのタイトルは,「スピーキングの指導と評価」です。

ファッ!?いやいやスピーキングの研究とかメインでやってないし評価の研究もメインでやってないよ!?なぜこの話が僕のところに!?

というのがこのお話をいただいた際に思ったことですが,「はい」か「YES」しか選択肢がないのでお引き受けしました。原稿はとっくにあがってるのになかなか校正に入っていない「タスク本」(出版社がとてもお忙しいようです)に書いた内容とも関連させて,タスクを用いたスピーキングの指導と評価についてをお話しようかなと考えているところです。

時間は大会初日24日の10時からということで,ここ数年の中部地区英語教育学会では「恒例」というほどになってきた「英語教育研究法セミナー」の「裏番組」です。参加者として毎年英語教育研究法セミナーに出るのを楽しみにしていたので,そちらに出られないのは残念ですし,昨年度はかなりオーディエンスも多かったセミナーと同じ時間帯ということで,参加いただける方がどれだけいるのかとか不安はあります。そこは実践セミナーの司会を務められる浦野研先生(北海学園大学)にお力添えをいただこうと思います。

私がお話する内容は,「これがいい!」とか「この方法でやればスピーキング力が伸びる!」とかそういったことではなく,「こんな感じでスピーキングの評価を考えてみるってどうですかね?」というような「提案」になると思います(「提案者」としてお話するので)。フロアの皆さんとのやりとりを通して,スピーキングの指導と評価について考えを深められればと思いますので,ぜひ,CELES長野大会にお越しいただければと思います。

なにをゆう たむらゆう。

おしまい。

 

[R] データフレームの中の英文の語数を数える

以前,エクセルで英文の中の特定の単語までの語数を数えるという記事を書きました。今回はそれよりもっと単純で,Rのデータフレームの中の1部に英文が入っていて,その英文の語数を数えてデータフレームに付け足したいなっていう作業です。

%e3%83%96%e3%83%ad%e3%82%b0%e8%a8%98%e4%ba%8b%e7%94%a8_20170218

こんな感じでロング型のデータがdatという変数にあるとします。このデータフレームのなかの,sentenceという列には英文が入っていますが,それぞれ長さが違います。文が長いほうが反応時間も長くなっちゃいますから,そのために英文に含まれる語数を数えてそれも分析に使いましょうということです。僕がやっているような反応時間を扱う実験ではよくありがちな手続きです。本来なら刺激文作るときにそれもちゃんと数えておいて(エクセルで語数数えるのは簡単です。前掲の記事の一部がそれです),結果が出力される際にちゃんと語数の情報も含めておけばいいんですけど,まぁ今回はそれ忘れちゃったんでRの中でやってしまおうという事後的な対処法です。

さてさて前置きが長くなりました。Rでの文字列処理の基本は「分ける」・「数える」だと思います。僕はそんなにRで文字列処理しないんですが,今回の場合で言うと,データフレームの要素に含まれる英文をスペースで区切り,区切ったときにいくつかに分けられた要素の数を数えることで語数をカウントするという手続きになります。

今回使う関数は次の4つです。

  • (as.character関数)
  • strsplit関数
  • length関数
  • sapply関数

順番に説明していきます。strsplit関数は

strsplit(分けたいもの,区切り文字)

という感じで使います。今回の場合,分けたいのはdatの中のsentenceという列(dat$sentence)で,スペースで区切りますから,

strsplit(dat$sentence, ” “)

とすれば,

%e3%83%96%e3%83%ad%e3%82%b0%e8%a8%98%e4%ba%8b%e7%94%a8_20170218_2

こんな感じで単語ごとに区切ってくれます。この出力は1文ずつのリスト形式になっていて,そのリストの要素が英文を構成する単語になっています。もしも,このstrsplit関数がうまくいかなければ,

is.character(dat$sentence)

として,データフレーム中の英文が文字列形式で格納されているかどうか確かめてみてください。因子型(factorial)になっていると,strsplit関数は適用されません。これを変えるのが,as.character関数です。

strsplit(as.character(dat$sentence))

または,

dat$sentence<-as.character(dat$sentence)
strsplit(dat$sentence, ” “)

としてみてください。

さて,これでひとまず「区切る」作業はできましたが,まだ「数える」にはいたっていませんよね。数えるためによく使われるのが要素の数を数えるlength関数です。ただし,例えば

length(strsplit(as.character(dat$sentence)))

としてもうまくいきません。これでは出力されたリストの要素を数えるので,元のデータフレームの行数が表示されるはずです。ここでは,「リストのそれぞれの要素に対してlength関数を適用したい」わけなので,もうひと工夫必要です。そこで使うのがapply系列のsapply関数です。この関数は,

sapply(リスト,関数)

という形で引数を与えてあげると,リストの各要素に関数を適用してくれます。これと同じことができるのがlapply関数です。lapply関数を使うと,結果の出力もリスト形式で返されます。ただ,ここでは語数が並んだベクトル形式のものを手に入れて,それをもとのデータフレーム(dat)に追加したいわけなので,sapply関数のほうがベターです。lapply関数にすると,そのあとリストをベクトルに直すunlist関数を使う必要があって二度手間になってしまうので。というわけで,

sapply(strsplit(as.character(dat$sentence), ” “), length)

こうしてあげれば「スペースで区切る-> 語数を数える -> ベクトル形式で結果をゲット」という作業が完了します。あとは,

dat$num.words<-sapply(strsplit(as.character(dat$sentence), ” “), length)

としてあげれば,datに新しくnum.wordsという列が追加され,そこにはsentenceの列に入っている英文の語数が格納されることになります。めでたしめでたし。といきたいところなのですが,最後におまけでもうひとつ。

上の書き方だと,いくつもの関数が入れ子状態になっていて,一見して作業がわかりにくいですよね?そこでパイプ演算子を使って同じことをもう少しわかりやすく書き直してあげます。

dat$sentence%>% #datの中のsentenceという列を取ってくる
as.character%>% #文字列型に変換
strsplit(. , ” “)%>% #スペースで区切る
sapply(., length) -> dat$num.words #リストの要素ごとに語数を数えてdatというデータフレームのnum.wordsという列にいれる

こうやって書くと,作業の過程が見えてわかりやすいですよね。ちなみにこのパイプ演算子はパッケージ依存です。dplyrやtidyrを使うときに使うやつですね。たぶんこれらのパッケージを読み込んでいればパイプ演算子も使えるようになっているはずです。もともとはmagrittrというパッケージに入っているのがパイプ演算子が%>%なんですよね(たしか)?

というわけでlapplyの出力をunlistしてできたできたと思っていたらsapply関数の存在に気づいてなんだよ二度手間じゃんかよって思ったのでブログ記事にしました。

なにをゆう たむらゆう。

おしまい。

 

 

 

[R] 欠損値を1つでも含む行を抽出

ものすごい初歩的なことだったのに,調べてもなかなかヒットせずに格闘したのでメモ。

RでNAを処理する方法はたくさんあって,ある特定の列にNAが含まれる行だけ引っ張ってくるなどは結構簡単だったりする

subset(dat, is.na(dat$A))

とかでいい。ただし,データフレームにある複数の変数の中で1つでもNAが入っているかどうかとなるとちょっとどうしたらいいんだこれは,となる。

na.omit(dat)としてNAが含まれている行を全削除すればいいのでは?となるかもしれないが,実は今扱っているデータがlong型のうえにかなり複雑なデータフレームになっていて,同じidが複数行にまたがってしまっているという状態。実験のデザインがかなり複雑なのでこれはこれで仕方がない。

つまり,複数行のうち1行でもNAがあるidは,NAが含まれない行でも削除しないといけない。そのためには,NAが含まれる行のidを特定する必要があるわけだ。そこで,欠損値を含む行を抽出し,その中からid列だけを取ってくるという手続きを取る必要がでてきた。こうすれば,あとはdplyrのfilter関数なり,subset関数なりでそのidが含まれる行をすべて抜いて新しいデータセットを作ればよい。

それで,この,NA行の特定をベクトル形式で返してくれる関数が,complete.casesという関数。is.na関数にデータフレームを渡すと,その結果は行列(matrix)形式になる。これはこれで,どの行のどの列にNAがあるかを確かめるのにいいのだけれど,こちらが欲しいのは,「何行目」にNAが含まれるのかという情報だけ。そこで,complete.cases関数を以下のような感じで使う。

subset(dat, complete.cases(dat)==F)

あるいは,

dat%>%
filter(complete.cases(dat)==F)%>%
select(id)

上の方法だと,結果はデータフレームだけど,下の方法だとid列を引っ張ってくるところまでやるので,これをなにか別の変数(ここではmissIDにしてみる)にいれてあげて,

subset(dat,id != missID)

とかやれば,id列でmissIDに該当しない行だけを抽出してくれる。下書き状態で放置されていたからとりあえず最後まで書いたけど,自分がなんのデータに対してこの手続をしていたのかはもう思い出せないw

データ分析業務ばかりやってるのは楽しいからいいんですけどね。

なにをゆう たむらゆう。

おしまい。

※追記(2017.03.11)

subset(dat,id != missID)

とやってもうまくいかないことがあるようです,というか多分うまくいきません(自分でやってみてダメだったので)。多分ですが原因の1つはmissIDがデータフレーム形式になっている場合。ベクトルになおしてください。もう1つの原因は,subsetなりdplyrのfilterなりで複数の条件を設定する場合に,参照先がベクトル形式の場合には通常の論理演算記号が機能しないことです。多分こちらのほうが大問題。時間が経ってから書いたからかこのことをすっかり忘れていましたすみません。正しくは%in%を使って,

subset(dat, !id %in% missID)

とします。この場合,データフレームの中の参照先の列名の前に!をつけます。これをつけないと「当てはまるもの」を取り出すことになります。

理論に暗示的知識が内包されたときのジレンマ

以前,教育効果を測定する目的で明示的知識と暗示的知識を測定し分けることの是非についてのエントリーを書きました。

https://tam07pb915.wordpress.com/2016/08/25/implicit-explicit-instruction/

そのときの結論は,「教育効果を測定するのに明示・暗示の話は持ち込まなくていいだろう」というものでした。ただ,理論のスコープが暗示的知識を含むととき,そうも簡単にいかない問題がそこにはあるなと最近(といっても書こうと思ってずっと書けてなかったので少し前)思ったので,その話を書きます。きっかけは以下の論文。

Zhang, X., & Lantolf, J. P. (2015). Natural or Artificial: Is the Route of L2 Development Teachable? Language Learning, 65, 152–180. doi:10.1111/lang.12094

ここで取り上げる理論とはいわゆる処理可能性理論(Processability Theory)です。これが理論足りうるかどうかはとりあえず置いてきます。処理可能性理論とは何かということは上記の論文を読んでいただくか,あるいは同じ号に提唱者のPienemannが書いた論文が載っていますのでそちらをお読み下さい。ざっくりいうと,学習者の言語発達は心理的・認知的な処理能力によって規定されていて,ある段階を飛び越えて次の段階に進んだりはしないという理論です。この理論と同じく紹介されるのが教授可能性仮説(Teachability Hypothesis)というものです(注1)。これは,教育的指導介入によって発達段階をスキップすることができず,学習者が今いる段階よりも上のレベル(正確には2レベル以上高いレベル)の言語規則を教授してもそれは習得されることはというものです。Zhang and Lantolf (2015)の論文は,この教授可能性仮説にそぐわないデータが得られたことを報告するというような趣旨の論文です。

こうした言語の発達段階や発達順序に関する研究が主たる関心としているものは,学習者の暗示的知識の発達であると考えられています。つまり,意識的な知識として知っているかどうか,明示的知識を持っているかどうか,ということではなく,暗示的な知識の発達に段階を規定するものです。例えばRod Ellisなんかは,暗示的知識の発達には発達段階による制約があるため,明示的な文法指導介入はそうした発達段階の制約を受けないと考えられる明示的知識の獲得を主たる目的とすべきであるという立場です。明示的知識は間接的に暗示的知識の習得を促す(weak-interface)というのが彼の立場なわけですから,この主張もうなずけます。

問題は,この「発達段階を教育的介入によってスキップできるかどうか」を問題にする場合,暗示的知識の測定が不可欠になってくるわけです。なぜなら,発達段階があるのは暗示的知識であって,明示的知識ではないと考えられているからです。実際,Zhang and Lantolf (2015)でも,guest editorのRod Ellisから「この研究の結果は明示的知識の発達を示しているだけで暗示的知識の発達であるとはいえないんじゃないか?」みたいなツッコミがあったそうです(p.174)。筆者たちの反論は,Pienemannたちが使っているような測定具と発達段階の決定規準(emergence criteria)を使っているのだから,もしこの研究がその点で批判されるのだとしたらそれは処理可能性理論や教授可能性仮説についても当てはまるじゃないかというような反論をしています。

で,一応Pienemann自身は同特集号の論文の中で,まず教授可能性仮説は処理可能性理論に含まれる必須の要素というわけではなく,理論というよりは実践の話で,いくつか研究でサポートされたからまぁプラクティカルにそうなんじゃねーのかみたいにしているだけで処理可能性理論はもっと緻密に作られた理論であるというようなことを言っています。つまり,教授可能性仮説は捨てても処理可能性理論は守られるっていう話なんですね。なんか強がりっぽいこと言ってますけど。でも多分なんですけど,SLA研究者のほとんどは処理可能性理論と教授可能性仮説に関連性あると思っているしむしろ理論の一部か派生かくらいには思ってるんじゃないですかね(実際僕もそう思ってました)?「みんな俺の理論を誤解している」ってそういうことなんでしょうか?百歩譲ってそうだったとしても,測定具の話は処理可能性理論にも及ぶわけなので,そこはちゃんと反論しなくてはいけませんよね。

測定具の話に関してPienemannは,elicited imitationとspontaneous productionを同一視してはいけない。elicited imitationはダメだがspontaneous proudctionは違うんだみたいなことを言っています。これって反論したようで実は全然反論できていなくて,前回も書きましたが,行動データで暗示的知識測定しようとしたらもう「産出データじゃ無理なんじゃね?」っていうのがここ最近の流れです。spontaneous productionってのが「elicited imitationとは違うものを測っている」というのならば,それが測っているものが暗示的知識かどうかも検証されないといけないですよね。でも,実際何が暗示的知識を測っているのかっていう問題の闇は深くて,そんな簡単なことではありません。

処理可能性理論のことを血眼になって研究している人ってこの問題どう考えているんですかね?もちろん,この問題は処理可能性理論についてだけではなくて,「言語発達の制約を受けるのは暗示的知識」という主張をするすべての研究者に当てはまります。この問題ってどうやったら論理的に,あるいは実証的に回避できるのか,有効なアイデアは考えてもパッと思いつきません。熟達度がそれほど高くなく,spontaneous productionで暗示的知識と弁別できないような明示的知識を使えないような学習者ならspontaneous productionでは暗示的知識を測定できるとかでしょうか?実際問題として処理可能性理論が対象にするような学習者は超高熟達度の学習者ではないわけですし。でもあまり有効な反論とはいえないですね。結局はパフォーマンス上に明示的知識の介入がないことを示さないといけないわけですから。うーむ。みなさんどう思います?

なにをゆう たむらゆう。

おしまい。

注1. Pienemannは同じ特集号の論文で,” …theTeachability Hypothesis is not a corollary of PT.” (p. 138)と言っていて,教授可能性仮説はPTの一部ではないようなことを言っています。

基礎研第4回年次例会に寄せて

今週土曜日12月17日に,名城大学ナゴヤドーム前キャンパスにて,外国語教育メディア学会(LET)中部支部 外国語教育基礎研究部会第4回年次例会が開催されます。皆様,奮ってご参加ください。

以下に,プログラムに掲載されているあいさつ文を載せておきます。

 

本日は、外国語教育メディア学会中部支部外国語教育基礎研究部会(以下、基礎研)の第4回年次例会にお越しいただき、誠にありがとうございます。

これまで、基礎研の年次例会は毎年2月末に開催されてきましたが、今年度は12月に年次例会を開催する運びとなりました。これは、部会運営の都合によるものです。年末の大変忙しい時期の開催となったことをお許し下さい。また、本年度の例会はジャニーズ事務所所属の嵐のコンサート開催日と重なり、会場周辺の混雑や、宿泊場所の確保が困難となってしまうなど、参加者の皆様には多大なるご迷惑をおかけしていることを重ねてお詫び申し上げます。

本日の会場となっている名城大学ナゴヤドーム前キャンパスは、交通アクセスも良く、また、2016年4月にオープンしたばかりの大変新しい、そして綺麗なキャンパスであります。このような素晴らしい会場を、私ども基礎研の年次例会会場として使用できるようご配慮くださった、名城大学の西尾由里先生に、心より感謝申し上げます。

さて、今年度の例会は、午前中にシンポジウム、午後にはワークショップと自由研究発表、夕方からは基調講演と、盛りだくさんの内容となっています。「若手研究者が考える四技能指導の理論と実験」と題したシンポジウムでは、リーディング、リスニング、スピーキング、ライティングのそれぞれを専門とする新進気鋭の若手研究者をお招きし、英語授業の理論と実践についてお話いただきます。ワークショップでは、講師の草薙邦広先生(広島大学)に話題提供をしていただいた後、今後の外国語教育研究の方向性やアプローチについて、参加者同士で活発な議論が行えればと考えています。自由研究発表枠では、実践報告1本、展望1本の発表があります。今年は、会場を1つの部屋とすることで、参加者全員がすべての発表を聞くことができるようにしました。発表者の方々にとってこの機会が有益なものとなるよう、活発な質疑が行われることを期待しています。夕方の基調講演では、関西大学の竹内理先生をお招きし、外国語学習における動機づけ研究を取り上げ、さまざまな角度からお話いただきます。ご期待ください。なお、本例会のシンポジウムと基調講演につきましては、リアリーイングシッリュ株式会社様のご援助をいただいております。御礼申し上げます。

私ども基礎研も、発足から4 年目を迎えました。発足当初からは運営に携わるメンバーも大きく変わりましたが、それでも週例会と称した勉強会を毎週開催し、こうした年次例会の開催、年度ごとの報告論集の発行を行えていますのも、ひとえに皆様のあたたかいご支援のおかげと、心より御礼申し上げます。皆様のご期待に沿えるよう、これからも邁進してまいりますので、今後とも変わらぬご愛顧を賜りますようお願い申し上げます。

田村祐

外国語教育メディア学会(LET)中部支部 外国語教育基礎研究部会 部会長

名古屋大学大学院生

回帰やろう?

Studies in Second Language Acquisition(SSLA)に,ANOVAじゃなくて回帰やろうぜ?っていう論文が出ていた。著者はL2の効果量の大中小基準作ったったぜ論文で有名なPlonsky and Oswaldだ。

Plonsky, L., & Oswald, F. L. (2016). Multiple regression as a flexible alternative to ANOVA in L2 research. Studies in Second Language Acquisition. Advance Online Publication. doi:10.1017/S0272263116000231

連続データなのにカテゴリカルに無理矢理分けっちゃっちゃーだめよんという指摘は私も半年前くらいにしているのです(実は)↓

田村祐(2016)「外国語教育研究における二値データの分析—ロジスティック回帰を例に—」『外国語教育メディア学会中部支部外国語教育基礎研究部会2015年度報告論集』29–82. [リンク]

私の論文は重回帰やろうよというよりはデータの特性に合わせて一般化線形(混合)モデルを使いましょうよというような提案だったので,SSLAの論文とは若干論点は違うんですけどね。でもまぁ今さら「重回帰やらないと!」とかいう論文がSSLAという一応prestigiousなジャーナルに載っちゃうのっておいおい大丈夫かいなという気がしてしまう。

そんな金曜日の夜。

なにをゆう たむらゆう

おしまい。

タスクは取り入れられない

非常勤先で,「タスク・ベースの活動を取り入れた英語授業」というのをやろうということで色々試行錯誤しています。

そこで,最近ようやく気づいたのですが,「タスクを取り入れた英語授業」はできないなっていうことです。タスクをしっかりやろう,消化不良にならないようにしよう,と考えると,それはもう授業全体をタスク・ベースで構想していかないといけません。

「タスクを取り入れる」といった時,それはほとんどの場合,「これまでに行われていたなんらかのコミュニケーション活動をタスクにする」ということになると思います。しかし,タスクの定義を満たしたコミュニケーション活動を,授業の「仕上げ」あるいは「まとめ」的なところにそのまま配置すると,ほとんどの場合タスクをうまく遂行することができず,結局事前に対話の形式を示したり,入れ替える語彙の選択肢を与えたりしてなんとか活動を終わらせることになってしまうと思います。これはなぜかというと,遂行するタスクを意識したインプットを事前に十分に与えて理解するプロセスを経験させておかないとタスクができないからです。タスクというのはそういうものなのです。

これは現在鋭意改訂中の原稿の中でも書いていることなのですが,「タスク・ベースの英語授業」と「タスクを取り入れた英語授業」の一番の違いは,学習者がタスクを遂行できるようにどのような手立てを取るか,にあると思います。前者では,最終的な目標タスク(現実的場面での目標タスクというわけではなく,教室場面で「達成目標となるタスク」の意味です)を達成できるようにするためにタスクを用います。もちろん目標タスクが学習者に産出をもとめない「理解型タスク」である可能性もありますが,ここでは目標タスクは何らかの言語産出を学習者に求める産出型タスクであるとします。後者では,「取り入れる」という発想を取っているわけですから,通常の授業時間の一部をタスクに割り当てることになります。モジュール型アプローチとも呼べますが,週に1度の英語授業でモジュール制でタスクに取り組ませるとすると,単発で毎週異なるタスクに取り組ませるようなことになってしまいます。今までにやってきたようなバリエーション豊かなコミュニケーション活動の数を減らさなければ,目標タスクに向かってステップバイステップで学習者を導くことは不可能でしょう。もしも通常の授業に関連させてタスクを「取り入れる」のだとすると,ほとんどの場合それはなんらかの目標言語形式があったりします。特に,大学でもfalse beginnerを対象にしていたり,リメディアルと呼ばれるような授業であるほど,教科書も「基礎固め」や「やり直し」と称して中学で習った文法をもう一度教えるようなものが多いです(これ系のリメディアル教材は個人的に99%滅びてほしい)。実際,教材で与えられているインプットを活かしたタスクを作ることにはかなり頭を捻らなくてはなりませんし,基本的に大学用の教科書は1週で1課(または2課)という構成になっているので,同じようなタスクに繰り返し取り組ませる余裕もありません。

一方で,タスク・ベースの授業では,目標タスクで必要となる語彙,文法,表現などを学習者に処理させるような理解型のタスクを最初に用います。そこから,徐々に学習者がそれまでに得たインプットを「借りながら」タスクを遂行できるような産出型のタスクを行います。ポイントは,あくまでどんな表現を使うかの判断は学習者に委ねられていることです。そして,タスク自体を易しくしたり,準備時間を十分に取ったりして難易度が低いかたちのタスクに繰り返し取り組ませ,そこから最終的な目標タスクに取り組みます。これでうまくいかなければ同じタスクにもう一度取り組ませたり,やりとりや発話の性質自体は同じで内容を変えたタスクにもう一度取り組ませたりします。つまり,発話を求めるなんらかのタスクを学習者が達成できるようにすることを考えれば,そこまでにたくさんのインプットを与えなければいけませんし,タスクは一度きりで終わってしまうこともできません。要するに,「取り入れる」なんて言ってられないということです。

タスクだけじゃ一つの授業がもたないし…

と考える人がもし仮にいたとすれば,それはタスクをできるようにさせてあげることがどんなに手間のかかることなのかわかっていません。ポンと投げ込みでいれてワイワイ楽しくやれるというのは,ある程度熟達度が高い学生を対象にしている場合のみで(それでもそんな簡単にいくわけではないと思います),私が今教えているようなレベルの学生(TOEIC Bridgeで100前後)がタスクをやって達成感を得たり,「楽しかった」「できた」と感じることができるようになるのは,そんなに簡単なことではないわけです。

教科書もやらないといけないし…

という人には,「教科書やらなくていいでしょ」と言いたいです。もちろん大学でもそういう状況ばかりではないでしょうけど,初学者向けのタスク・ベースの教科書が少ない(ほとんどないと言ってもいい)以上,教科書なしでどんなタスクができるようになってほしいかを考え,そのタスクができるようになるためにはどんなタスクが必要かを中心に授業を構成していくだけで授業は15回できます。そう考えると,教科書を「メイン」にすることは難しいです。学生に教科書を買わせるからそれを使わないことに罪悪感が生まれるのであって,教科書は買わせなければ良いし,もしどうしても何か持たせたいなら「文法書」を持たせてレファレンスブックとして授業や自習時に参照するように指導するか,辞書を持たせて授業に必ず持ってくるように言うほうが教科書を買わせるよりもよっぽど良いと思います(これはこのブログでも何回か言ってる気がしますけど)。

プリントをファイリングしていけば学習の積み重ねとして最終的にそれが教科書の様になるわけですし,教科書に活動が豊富に掲載されていてもそれに書き込んだものはその都度チェックしにくいです。フィードバックを個別に返すことはできなくても,タスクができたかできなかったか,どのあたりで躓いていてどこにフォローが必要なのかはプリントを見ているだけでもある程度把握でき,それによって授業も臨機応変に変化させられるでしょう。シラバスに沿った授業をしたかどうかをFDでチェックされるから学期中に予定を変更するのがためらわれるという意見も聞いたことがありますが,それって本末転倒でしょう。学生を見ずに立てた予定を守ることに何の意味があるのでしょう。学生にこちらの意図をきちんと説明して予定を変えれば理解されるでしょうし,それをしないことは教師としての怠慢だと私は思います。

話が少し逸れました。教科書があれば教材を作る手間も省けますし,練習問題の答え合わせを授業でやることにすれば一度作ったスライドを教科書を変えない限り使いまわせてとても楽でしょう。ただし,それはタスクにも同じことが言えて,タスクだってある程度蓄積があれば教える学生のレベルや状況に合わせて修正しながら使いまわすことだってできます。目標タスクがあればそこから理解型のタスクを作ることもそんなに難しいことでもありません。中途半端にタスクを「取り入れ」て消化不良になるよりは,タスク・ベースでやったほうが学生にも親切な授業設計になるでしょう。

結論,やっぱり,タスク・ベースでやりましょうよ。そのためにこれまでに扱っていた内容を削り落とさないといけないとすれば,そこは勇気を持って取捨選択しないといけないでしょう。90分×15回の授業でカバーできる範囲はそんなに多くありません。

なにをゆう たむらゆう。

おしまい。

CAFが上がったり下がったりしたからなんなの問題

L2研究で、学習者のパフォーマンスを測定するとき、複雑さ(complexity)、正確さ(accuracy)、流暢さ(fluency)のいわゆるCAF(きゃふ)という構成概念に焦点を当てた研究がある(注1)。

それぞれの構成概念を測定するために様々な指標があり、それほんとに測りたいもの測れているのかいな問題はあるのだけれど、それは後輩のNくんに取り組んでもらうとして、ここではタイトルにあるように,「CAFが上がったり下がったりしたからなんなの」問題について考えてみたい。以下,主に研究に悶々するM(特に自分の後輩とか)向けですが,ブログに書くのは先輩面したいわけではなく(してません!),いちいち言うのが面倒なのでこれ読んでおいてっていうためです。

ざっくり言えば,正確さや複雑さが向上するのは形式に注意が向いたときだと言われている。つまり,形式に注意が向いた結果として正確さや複雑さの向上が見られると。言語習得には形式への注意が大事だからFocus on Formが大事だと言われるわけなのだけれど,そういう前提に立つのなら正確さや複雑さが向上した結果としてのCAFの向上見なくても,形式に注意が向いたこと自体を示せばそれは言語使用中にFocus on Formが起こったことをよりダイレクトに示せるわけだから,そういう研究をすれば良いのでないかと思う(注2)。正確さの向上はavoidanceによるものも含まれ得るわけで,パフォーマンス上の変化が必ずしも言語習得上有意味なものであるとは限らない。そういう観点でも,やっぱり「なんでそれがあがる(さがる)のか」からきちんと組み立てないと,研究が蓄積していってもそれが分野の発展に貢献するのかわからない。そもそもone shotで習得が起こる思うこと自体「言語習得ってそんな甘くないよね」って話でもある。明示的な知識を授けてテストするならまだしも(すぐ忘れられるけど),パフォーマンスレベルの変化ってそんな短期的に起こることを期待できるものなのだろうかという。

自分がどういう目的をもってCAFを測定するのかをよく考えないと、「上がった上がった」って喜んだり、「上がらなかった上がらなかった」って残念がったりするだけで終わってしまう。タスクの繰り返し研究でも、プランニングの研究でも、それやったら何がどうなるからその結果としてパフォーマンスのCAFが変化するの?っていうのがイマイチわからない研究がしばしばある。後輩の研究を見ててもいつも思う。もちろん探索的な研究に意味がないとは言わないけれど,それでも探索的なものを積み重ねていった結果としての「その先」や,関連する研究も含めての「ゴール」みたいなものがわからない(あるいはわかりにくい)研究だと,「それで…?」ってなってしまう。

教育的示唆につながることも視野に入れているような研究であればあるほど,なんらかの介入や指導の効果を測定するための成果変数を無条件に最低でも3つ(Lも入れれば4つ)持っていることになる(注3)。そして,とりあえずどこかでユーイな差が見られたら「効果があった」ということになる。CAF全部あがれば万々歳ってことになると思うのだけれども,そんなことはたいてい起こらないわけで。それで例えば「AはあがらないけどCはあがった」ってなったら,「それはなんでなの?」という疑問が浮かぶ。そして,そういう結果が得られたあとにそれを説明すると考えられる要因をあーでもないこーでもないと議論するなら,最初からこの介入や指導でどのような効果が期待できるのかの枠組みをしっかり立ててから検証した方がいいんじゃないのと思う。そうすれば,議論はもっとシンプルになるはず。

CやAやFを個別に取り上げないで3つとも見る必要はどうしてあるのだろう,つまりは,「CAFが上がったり下がったりしたからなんなの」と言うより,「なんでCAF見るの?」問題と言った方がいいのかもしれない。「なんでCAF?」と聞かれたときに(「先行研究でCAF使われてたんで…」とかじゃなく)きちんと説明できないようなら,その研究を進める前にちょっと考えた方がいいと思う。そうじゃないと,それってむやみやたらに成果変数の数を増やして「なんか効果あった」って言いたいだけじゃん!ってなる。「パフォーマンスを見るならCAFなんです」も不十分。そのときには,「なんでパフォーマンス見るの?」って聞かれたらどう答えるかを考えてみてほしい。

僕の中ではタスク研究はもっとタスクの達成(completion)と言語的特徴の関連の方に移っていかないといけないなといけないとずっと思っているし,Pac-SLRFのtask-repetitionのコロキアムでも質問があった「タスクの繰り返しとacquisitionはどう関わるの?」の話についても,second language acquisitionという意味ではやっぱり言語がフォーカスされるわけだけれども,task-based language teaching (TBLT)の枠組みでは言語にフォーカスした評価は(少なくともそれが目標でない限りは)されないことになるので,その辺がジレンマなんだよねとかそういうことを考えている。

というようなことを,

Ellis, R. (2015). Understanding second language acquisition 2nd edition. Oxford University Press.

この本の第11章を読みながら考えた。やっぱりこういう「まとめ」的な本を読むのも大事だなと思う。個々の研究論文を読むのと同時に入門書や概論書も複数読んでいると(特にMとかDのときは),同じ話は何回も出てくるけどそのたびに自分の理解を確かめたりできるし新しいアイデアや疑問が浮かんでくることもある。まぁでも,まだまだ自分の知識はその程度なのだなということでもあるのだけれど。

というわけで,久しぶりのちょっと真面目なブログ更新でした。

なにをゆう たむらゆう。

おしまい。

 

 

注1: たまにここに語彙(Lexis)が入ってCALFになることもある。

注2: Fukuta (2016)とかね。

注3: 各構成概念につき指標を2つ以上選択した場合はもっと増えることになる。そう考えると,「ユーイ」な差が出る(出そう)な指標を恣意的に選択して結果を報告する危険性もはらんでいてそれも問題。ほとんどの指標はスピーキングでもライティングでも得られたデータをもとにして指標を算出するので,考えられ得る指標をすべて出して都合の良い結果の得られたもののみで議論するということも有り得ない話ではない。

 

Can-DoっていうときCEFRっていうのやめたらみんな幸せにならないかな

原稿を書いててもやもやしていることを整理するためにブログ記事にするコーナー(今作った)。

中学校・高等学校の評価や到達目標の話をするときに,もはやCan-Doの話は避けて通れない。なんで避けて通れないのかと思った方は『今後の英語教育の改善・充実方策について 報告~グローバル化に対応した英語教育改革の五つの提言~』とか『各中・高等学校の外国語教育における『CAN-DOリスト』の形での学習到達目標設定のための手引き』とかを参照のこと。

私自身の結論はそのままタイトルにした。私個人は,学習到達目標がCan-Doの形で示されることについては概ね賛成という立場。とはいっても,この路線で「Can-Doいいよ!」の方向性で書いていて色々調べているうちに,この話はいたるところに地雷がたくさんあって,色んな方向から槍が飛んでくるなということに気づいた。そして,その理由はCan-Doに必ずCEFRがくっついてくるというのが原因なのではないかなと。で,Can-DoのときにCEFRの話しなければ(もっといえばCan-Doって言わなければ),特に批判も受けないのではないのかなという結論に至ったという。

まず,私がなぜCan-Doで目標設定することが良いと思っているのかを述べる。それぞれの理由や細かい点について詳細に書くとそれはもはや原稿をコピペするようなことになるので,詳しいことはそっちで読んで下さい…ということでご了承いただきたい。

理由の1つは評価との兼ね合い。中学校の評価は観点別学習状況評価で,

  • コミュニケーションに対する関心意欲態度(関意態)

  • 外国語表現の能力(表現)

  • 外国語理解の能力(理解)

  • 言語・文化に対する知識・理解(知識)

のいわゆる「4観点」で評価をすることになっている。文法項目をベースに配列した教科書を使って,PPP的な(PPで終わってるかもしれないけどいずれにせよ)文法項目の定着を意図した授業を行い,それに基づいて評価が行われるとすれば,関意態以外の観点の3つの観点に文法項目の「正確さ」を意図した評価がなされる可能性が高い(し実際そういうケースが多いと思う)。ある文法項目を正しく理解したり,正しく使って表現したりすることを求められ,その文法項目についてのメタ言語的な知識も求められる。3単現の記事でも書いたことだが,「正確性ってそんな大事なの」というのが私の考え。言い換えれば,正確性が完全ではないときに「表現」や「理解」の能力がゼロだとみなされたり著しく評価が下がることは本当にあるだろうかというのが疑問。もちろんそういうことも十分に有り得るケースはあるだろうが,全てがそうだと言い切れる根拠はどこにあるのだろう。言語の正確さを排除したCan-Doリストになれば,少なくともこの点に関してはクリアできる。正確さに関わるところは「知識」の観点で評価すればよい。Can-Doは正確さを評価していないということを批判的に捉える意見もあるが,むしろ「言語使用」という観点で評価するのがCan-Doなのだから,正確さが反映されないのは当然のこと。ただし,目標の言語使用場面で正確さが必要となる場合には,正確さを含んだ到達目標を立てても私は問題ないと思っている。*1 それをCan-Doと呼ぶかという話。Can-Doの定義とか成立背景(そこにCEFRが絡む)とかを引き合いに「それはCan-Doではない!!」とか言われるのだったら,「じゃあCan-Doと呼ばなくていいっす」ってことにしたらいいのじゃないのかと思うのだ。

Can-doを肯定的に捉えている2つ目の理由は(というか根本的にはここなのだが)タスク・ベースとの整合性が高いから。授業がコミュニカティブだったりタスク・ベースだったりするなら,評価も行動志向的な評価であるべき。「Can-doは単に行動志向的であるだけではない」という批判がくるなら,「じゃあCan-Doと呼ばなくていいっす」(アゲイン)となる。

Can-Doが批判される時,それはCEFRから持ってきていることを主張することが原因なことが多いように思う。CEFRはもともとヨーロッパの複言語主義が背景にあり,さらには単に教師の評価という視点だけではなく,学習者にとっても自分で自分の言語熟達度を教師と同じ基準で評価できるように作ったということがある(ざっくりいえば)。だからこそ,Can-Doで評価ということになると,それは学習者の視点が欠けているとか,CEFRが曲解されて輸入されている(「CEFR-J…だと…?」みたいなのとか)という批判にさらされることになってしまう。わざわざCEFRとか持ち出さなくても,行動志向的な評価をすること自体にメリットがあるのだから,評価(の控えめにいって少なくとも一部)は行動志向でパフォーマンスベースでいきましょうってことで丸く収まらないのかな?と考えてしまう。もちろん,それですべてが解決して,それこそがベストだなどというつもりは毛頭ない。教育に(というかこの世のあらゆる事象に)「ベストアンサー」なんてあるわけがない。今よりベターにするのはどうすればよいかという視点で考えたら,そこまで決定的に行動志向的な評価それ自体が批判されることはないように思う。もしあれば,それはとても有益な議論で是非とも私の論考にも取り入れたい視点なのでご指摘いただきたい。

というわけでサイゼリヤでビールを飲みながら書いていたらこの辺で力尽きたのでとりあえずこの記事はここでおしまい。広げた風呂敷は私の原稿で畳みます(逃げ)。

なにをゆう たむらゆう。

おしまい。

 

*1 例えば「授業を欠席したので課題を出してもらいたくて先生にお願いして課題をもらう」というのが目標だったとき,”I don’t class yesterday. Sorry.Please homework.”といった学習者をどう評価するかという問題。