月曜だ。だけど朝6時から自宅で仕事。寝てる間、ずっとVAIOを動かしてたのだけどPythonはエラーで止まってた。。
チーン。
いつもより遅めの9時過ぎに大学到着すると
オフィスに3番のり🐥🐣🐤
みんな早いね〜
さて月曜の私、今日もなけなしの脳みそがもげそうになるくらい頑張った。だけど時間が足りません。能力が低過ぎて辛い。
今日は約130本のフルスクリーニングが終わったので、エンドノートからデータを抽出してレビューのサマリーテーブルをつくった。
私のチームは、レビューのフルスクリーニングのデータ抽出作業をエクセルを使わず、エンドノートとPythonだけでやっている。使う理由は雑務を減らすため。無駄が一切ないので約130本のフルスクリーニングを3人で手分けしたらたったの5日で終わった。130本をもちろん3人で単純に分配はせず、総データの10%(14本の論文)を3人同時にデータ抽出し、お互いのプロセスに問題がないか確認作業もおこなっている。それでも4から5日。いかに世間がエンドノートをなんとなく使っているかがわかる一例だと思う。それについてきてくれるチームに感謝しかない。
データ抽出がエンドノートで完結したら、エンドノートデータをエクスポートして、Pythonをつかってデータクリーニング。このデータクリーニングに私は手こずった、、、想像以上にやることがおおかった、、、頭文字を大文字にしたり、文章の最後のスペース削除したり、改行無くしたり、、、、。データクリーニングが終わったら、ここで初めてエクセルシートで保存。
エクセルシートはみんなで同時編集が可能になるように設定して(この設定に手こずった)、このテーブル使って3人で一気にアナリシスを終わらせる予定。もちろんエクセルファイルは3人で一つしか持たない。一つしかデータを作らないことで、みんながいつも最新のデータにアクセスすることが可能になる。議論が必要ならその場で一瞬でデータをみて解決することができる。
こんな抽象的な内容じゃ伝わらないけど、私の頑張ったーって日記だからこれでよし。いつかやり方を書きたいとは思うけど、誰得情報なのでいらないかな?と思ってみたり。
そんなこんなで、いろいろやっていた18時半。P Mも相変わらず残って仕事してました。PMのような働き者の白人オーストラリア人がオーストラリアを支えているんじゃないかって思うほど、彼女は他のオーストラリア人よりよく働く。
そんな私は帰り道、無意識に『誰か助けて〜』って口にしてた笑←重症。
月曜からこんなだけど、私なりに充実した週末もすごしです。
土曜日は、UTMB に向けたロング走。レース以外でこんなに長く走ったことはありません↓
60キロ‼︎
ぎゃーーーー!
来月、世界最高峰のトレランレースに参戦します。ゆっくりで良いので動き続ける練習が必要。だからトレイル40キロ走った後、下り基調のロード10キロ、最後はフラットのロード10キロをやり切りました。。。一言で表現すると死ぬかと思った。
でも3371カロリー消費
☆*:.。. o(≧▽≦)o .。.:*☆
痩せたかな?嬉
いや痩せてないよね(たぶん)。おにぎり3個、豚骨ラーメンも食べたしな。ラテもクッキーもたべたな。。。帰宅してからプリングルス、サーモン、ポテサラ食べたし。。。
おうちのコーヒー豆が切れたので、この日はコーヒー豆も買ってきました。国立公園近くのコーヒーロースターで週末開いていたのはPymbleにあるこのお店だけ↓
Siboni's Coffee
初めてきたー。ラテを買ってみたけど、マダムがいれてくれたラテのお味は普通。だけど2種類のお豆をかいました!
このSiboni's Coffeeの良いところは、シティーにあるコーヒーロースターよりコーヒー豆が安い。ほぼ半額!
味は普通だけど半額って魅力的。。。
リピしらあるかなぁ?どうかなぁ?
何がすごいって?
このあと500グラムのコーヒー豆を背負って、40キロ走った私がすごい笑。もう重さも距離感もバグってる。
頑張ったから日曜日は午前はゆっくり過ごしました。
ラテをさまざまな角度から一口一口飲んで行ったら、ラテアートがコップ中央に浮いてる感じになった。島みたいでテンションアップ!
ゆーっくりした後、11時半から仕事を開始、あっという間に夜。土曜にめちゃくちゃ運動したから脳みそが一周回って超クリア。仕事なのに充実した時間でした。正確には仕事だけど私にとっては相変わらず90%が勉強と言った感じ。初めてのことしかやってないので、本当に仕事なのか勉強なのかわからなくなる。
実はこの日曜は記念すべき日。
私は通常業務に加えてビッグデータの解析を始めた。日中は他の業務で忙しいのでまず触れないと思う。週末に少しずつ進めることで了承してもらってます。
いまSASのファイルを21個もっていて小さいデータから順に読み込んでいます。現時点で一つのファイルに8000万行のデータが入っているのもある。やばいのよ、サイズが。そんなだからPythonでSASのデータ読むのに40分とかかかる。
今の1番の心配はメモリ。メモリ16Gあってもメモリ不足でファイルが開かないというエラーが起きている。これまでは再起動してから読み込んだりごまかしてきた。でももう読めなくなる日は相当ちかい。いま読み込んでいるデータの1.5倍から4倍のサイズのSASファイルがまだ残ってる。。。いまでこれだからこの先どうなっちゃう?こわい。
そんな感じ。では。