
蒸し鶏と白菜の和え物

卵焼き(青のり入り)

カジキマグロステーキの野菜あんかけ

厚揚げと玉ねぎの煮物

蒸し鶏と白菜の和え物

卵焼き(青のり入り)

カジキマグロステーキの野菜あんかけ

厚揚げと玉ねぎの煮物

麻婆豆腐。かなりイマイチだった。

バンバンジー

小松菜のオイマヨ炒め
ちょっとわけあって,欠損値の処理について勉強するソルジャー業務機会がありました。そこで,多重代入法(MI: Multiple Imputation)という方法をRで実行する方法を少しかじったのでメモ代わりに残しておきます。
ちなみに,欠損値の分析をどうするかという話は全部すっ飛ばしますのでそのあたりは下記リンクなどをご参照ください。
多重代入法に関してはこのあたりの資料をどうぞ。
#まずはデータセットの下準備。こんな仮想データだとします。
#id =参与者ID, reading = 読解テストの得点,grammar = 文法テストの得点,vocab = 語彙テストの得点
#id列はいらないのでid列を抜いたデータセットを作る
dat1 <-dat[,-1]
#欠損を可視化するにはVIMというパッケージが便利
install.packages(“VIM”)
library(VIM)
#欠損情報を入手
m <-aggr(dat1)
#うまくいくとこんな感じで欠損情報を可視化してくれます
#数値で確認する場合はmの中身を見る
#Multiple Imputation by a bootstrappted EM algorithm (Amelia Package)
#パッケージのインストール
install.packages(“Amelia”)
library(Amelia)
#amelia()関数をまずは使います
#引数は以下のとおり
#x = data.frame
#m = 何個のデータセットを作るかの指定
#dat1.outという変数に,多重代入した結果を入れます
dat1.out <-amelia(x = dat1,m = 5)
#中身はsummaryで確認します
summary(dat1.out)
#補完データの分散共分散行列をみる
dat1.out$covMatrices
#補完データを書き出し
#separate =Fと指定すると,データが1つのファイルに書きだされます
#separate = Tにすると,データセット1つにつき1ファイルで書きだされます
#dat1.ameria.csv, dat1.ameria1.csv, … dat1.ameria5.csvみたいな感じで番号をつけてくれます
#orig.data=Tで,オリジナルのデータを出力する際に含めるかどうかの指定ができます
write.amelia(obj = dat1.out,“dat1.amechan”,separate=T,orig.data = F)
#AmeliaView()を使うと,GUIで操作できます(重いです)
AmeliaView()
#多重代入した結果得られた補完データをまとめる作業をします
#例として重回帰分析をやってみます
#独立変数 = grammar, vocab
#従属変数 = reading
m =5
b.out <-NULL
se.out <-NULL
for(i in 1:m){
ols.out <-lm(reading ~ grammar+vocab,data=dat1.out$imputations[[i]])
b.out <-rbind(b.out, ols.out$coef)
se.out <-rbind(se.out, coef(summary(ols.out))[,2])
}
#b.outにはbetaが5つ入っています
b.out
#se.outには標準誤差(SE)が入っています
se.out
#mi.meld()で,5つのbetaとSEをまとめます
combined.results<-mi.meld(q = b.out, se = se.out)
combined.results
というわけで,まとめる段階が手動で関数書いていますが,それ以外は割りと簡単にできます。ファイルの書き出しなんかもできますし。
補足
miceパッケージを使うともっと簡単に多重代入->分析->統合ができるようです。
参考:install.packages(“mice”)
library(mice)
imp_data<-mice(dat1,m = 5)
fit <-with(imp_data,lm(reading ~ grammar + vocab))
summary(pool(fit))
なんかmiceパッケージの方が使い勝手が良さそうですね(アレレ
ちょっとまた時間があったらもう少し勉強してみたいと思います。
今日はこのへんで。
なにをゆう たむらゆう
おしまい。
気づいたらクリスマスも終わってどうやら2015年も残すところあと数日で終わってしまうようですね。ということで,今年も1年を振り返ってみたいと思います(2014年の振り返りはこちら)。
2015年は,自分の書いた論文が初めて出版された年でした。投稿したのは2014年中だったものが多いですが,出版されたのは2015年なので,私の研究者人生も2015年からスタートしたようなものです。
1月はD1報告の準備を泣きそうになりながらやっていました。博士後期課程に入学したときとは全く違うテーマに変えたので,論文を何十本も読みながら計画を練り直したのを覚えています。そのテーマで博士論文を書くことに決めたので,そういう意味でも2015年はターニングポイントだなと思っています。2月には基礎研の年次例会があったり,3月はあっという間にすぎていきました(たぶん)。
今年度はD2になり,先輩におんぶにだっこだった昨年度よりも自分で研究をガンガン進めていく立場にならないといけないと思い,後輩と一緒に研究プロジェクトをいくつかやりました。それらを中部地区英語教育学会(和歌山),言語科学会(大分),全国英語教育学会(熊本)で発表しました。今年は色々なところに出向いて学会発表をし,美味しいものをたくさん食べられたのもいい思い出です。来年は東京の学会が多いのが少し残念ではありますが…(実家に滞在すればよいので滞在費とか削減できるのは良いですけど)。
夏がすぎると論文執筆の時期…のはずだったのですが,全然筆が進まず,スケジュール管理と目標設定を意識的にやりながらなんとか論文を進めていたのが9-11月あたりでしょうか。
7月には母方の祖父が亡くなりました。祖父は長野県で教員をやっていたので,僕が教師を目指していたことをとても喜んでいました。教員をやっている姿を見せられなかったことが今でも残念ですが,僕は僕なりに一生懸命頑張って,この道で生きていこうと思います。
そういえば,基礎研の部会長にもなりました。会の運営は色々大変なこともありますが,川口くんと協力しながらなんとかやっています。彼は本当に優秀で,一緒に仕事するのがとても楽ですね。僕がわりと好き勝手にやれているのも,彼がいるからだと思います。感謝しています。今後も会が続いていくように,色々考えて動いていきたいと思います。
昨年の今ごろも博論やりたくないとうだうだ言っていましたが,今年も同じで1月のゼミ発表と2月のD2報告が今は嫌で嫌で仕方ありません…(準備は全然進んでいませんヒィィ
そういえばツイッターも事実上やめました。アカウントは消してませんが(理由はこちら)。今はFacebookはたまに覗いていますけどね。自分のことをウェブ上に発信するのはブログでやっていこうと思います。色々ありましたが,私は元気にやっています。
というわけで,2015年も健康上特に大きな問題もなく過ごすことができました(初めて虫歯の治療したというのはありましたが)。2016年も,健康に過ごせるよう,たまには息抜きをして,自分のできる範囲で自分のできることをコツコツやっていこうと思います。
それではみなさま,良いお年を。
なにをゆう たむらゆう
おしまい。
先日ついにtidyrパッケージで縦横変換をやってみた。今までずっと覚えなきゃなと思ってて結局億劫でやってなかったんだけれど手伝いで仕方なく。
データハンドリングで,横に広がる(列数の多い)wide-formatのdataを分析に便利なlong-formatに変換するというのは,分析をやるまえのデータ整形の過程で必ず通らなければならない道。Excel上で地道にやるのもあるにはあるだろうけど,Rのtidyrを使えばすぐできるというお話。これ系の話はググればネット上にゴロゴロ記事が転がっている。なので,今回は具体的に外国語教育研究系のデータ分析ではどんなときに役に立つかなーという話です。特に無駄に変数が多い時なんかは結構役に立つと思います。
適当にこんな感じでデータが入っているとします(数値は乱数)。事前・事後・遅延事後のテストがあって,それぞれで流暢さ(fluency),正確さ(accuracy),複雑さ(complexity)の指標があるみたいな。1列目には被験者番号があって,それぞれの列名は”test.measure”という感じでドット区切りにしてあります。で,これを,「事前・事後・遅延事後」の3つのカテゴリカル変数からなる”test”列と,3つの指標(CAF)の”measure”列の2列に分解しましょうという話し。
R上に上のようなデータを読み込みます。
まずはパッケージの準備
install.packages(“tidyr”) #パッケージのインストール
library(tidyr) #tidyrパッケージの呼び出し
datに入っているデータフレームをまずは,変数名の列(variable)とその値(value)の列に集約します。key=変数名の列,value=値の列という引数指定です。
#%>%はパイプ演算子。以下の関数で扱うデータフレームを指定するということです
dat %>%
#-subjectでsubjectの列を除外。変換したdataをdat2に入れる
gather(key = variable,value = value,-subject) -> dat2
これで変数名を1列に集約できました。ただし,この列にはpre, post, delayedというテスト実施時期の情報と,fluency, accuracy, complexityという指標の情報が混ざってしまっています。これを,2列に分けます。
dat2 %>%
#colで分けたい列名,intoで分けた後の列名を指定。sepでセパレータを指定しますが,デフォルトはあらゆる非アルファベットになっているので,ドットなら指定しなくても大丈夫
separate(col = variable, into = c(‘test’, ‘measure’)) -> dat 3
さて,dat3の中身を確認してみると…
おおおおー!!!!!
というわけで,横に変数がたくさんある場合もこのtidyrのgatherとseparateを使えば簡単にlong型に変換できそうです。
参考サイト:http://meme.biology.tohoku.ac.jp/students/iwasaki/rstats/tidyr.html
なにをゆう たむらゆう
おしまい。
ストレスが溜まっているのかなんなのか帰り道にセブン-イレブンでチーズとワインを買って飲むとかいう珍しいことをしているという言い訳を最初に書いておこうと思います。それから,自戒もたっぷり込めていることも申し添えておきたいと思います。
データ分析の方法の相談についてです。色んな所で起こっていることだと思うし色んな人がきっと同じようなことを考えているだろうと思います。一言でいうと,データを取る前に相談してみましょうということです。データを取ったあとに,「このデータってどうやって分析すればいいですか?」っていう質問は結構つらいところがあったりします(恐れ多くもなぜだかこういう質問をされる立場に私もなってしまいました)。なぜなら,本当にその質問者の方が調べたいこと,明らかにしたいことが,そのデータ収集方法で明らかにすることができるのかちょっと怪しかったりすることがあるからです。
そういう状況にならないために重要なことは,研究課題を見つけて,それを具体的な実験計画なりに落としこむ際に,その先のことまでちょっと考えてからデータ収集をしてみることだと思います。つまり,
こういう方法を使うと,こういうデータを収集することができる。それをこういう分析にかければ,こういう結果が得られるはず。もしこういう結果が得られた場合,それはこういうことを意味していると解釈できるだろう。
みたいなことを考えてから実験を組んで,データを取っていただきたいなということです。そうすれば,データを取ってからどうしたらいいかという質問が来ることはなくなるからです。上述の事でイマイチ自分がうまく説明できないとなったら,その時点で相談をすればよいと思います。そうすれば,実はその方法で得られたデータで,質問者の方の主張をするのはちょっと違うので,こういうデータ収集をしないといけませんよ,なんてアドバイスができたりするかもしれないからです。これって仮説検証型の研究でも探索的な研究でも同じだと思います。たとえ探索的な研究だったとしても,得られた結果に対してなんらかの解釈を加える必要はあるはずですから。研究課題がwh疑問文で始まる形であったとしても,結果に対しては,きっとこういう理由でこうだったのだろうということを言えなければいけないわけですし。
データをとって,分析をしてみて,これであってるのか不安だから相談してみようということもあるのかもしれませんが,それって別にデータ取る前にもできることなんですよね。
こういう研究課題をもっていて,これを明らかにするためにこういう分析をしてこういう結果が得られたらこういう解釈ができると思うのですが,これで合ってますか?
ってデータ取る前に相談すればすむと思うのです。なのにどうして,「データを取ったあとにこれってどうやって分析すればいいんですか?」ってなってしまうのでしょう。
これはあくまで持論なのですが,研究って,研究のデザインとか実験計画ですべて決まると私は思っています。面白いなと思う研究はやっぱりデザインがしっかりしていて,分析の結果から得られたことの解釈がとってもシンプル(注1)なんです(そういう研究が良い研究だと思う私からすると,discussionを長々と書いている論文やそれが良しとされる風潮,また「discussionが短い」みたいなコメントってなんだかなと思ったりします)。それって,デザインを練る段階で色んなことを考えているからなんですよね。研究の計画を立てる段階で,データの分析方法まで明確にイメージできない場合は,データ収集に入るべきではないと私は考えています。私の場合は基本的に,ある研究で行われることを考えることは,R上で分析を行う際のデータセットの形をイメージすることとほぼ同義です。変数のデータフレームがイメージできていて,それをどうやって分析すれば何をどうしていることになるのか,こういう結果になったらそれはどう解釈するのか,また別の結果がでたらそれをどう解釈するのかまで考えられて初めて研究のデータ収集ができるのではないでしょうか。
こういった考えが当たり前になれば「統計屋さん」(私は違いますけど)とか言われる人たちもずいぶん楽になるのではないかなと思っています。
なにをゆう たむらゆう
おしまい。
*注1: だからといって,t検定一発で明らかになることってそんなにはないとは思います。少なくとも今なら昔はt検定一発だったこともGLMMするでしょう。例えば正答率の平均値をt検定というのはもはや時代遅れになりつつあるわけですし。
明日8日(日)の夜に名古屋に戻ることになりました。
緊急事態で11月1日(日)から東京に戻ります。10日(火)の夜に名古屋に戻ってきます。メール対応等々はできます。ご迷惑をおかけします。
私が高校に入学した時,入学祝いとして姉にもらったBURBERRYの財布。当時は高校生のくせにBURBERRYなんて生意気だったような気もしますが,BURBERRYが似合うような男になれということで(それもどうかというのはある),10年以上ずっと使い続けてきました。小銭入れの部分の布はやぶれ,縫ってある布はほつれ,皮はつるんつるんになっていました。でも,自分で今まで財布を買ったことがなくて,いまいち踏ん切りがつかずにずっと愛用していたのですが,さすがにボロボロになってちょっとみすぼらしい感じすらするので,思い切って新しい財布を買いました。最近嬉しいお知らせをいただいた(自分のことで)があったので,自分へのご褒美という意味も込めて。