オタク年表

Bio

くもらせたい♡くもりをおちょくりたい♡刷り込み♡コンプレックス天才少年♡箱庭♡ごはん♡ごかん♡世界を壊す神様の仔♡生物に例えたら何でも萌えるタイプの人♡同人字書♡テクスト論♡終わりに敏感肌♡末期紫陽花組♡マリッジブルー木曾改二♡城坂論語三昧真火担♡ラブコメ動物Re:vale♡ニコニコ雷電類

オタク年表

2003

通っていた塾の国語教師が今思えばオタクで、その人が塾に持ってくる本を片っ端から読んでいた。トットちゃんから涼宮ハルヒまで。その影響で初めて自分の意志で本を選んで買った。角川スニーカー文庫バイトでウィザード流れよ光と魔女は言った。原田たけひとの絵に一目惚れしたのだと思う。
ファンクラブ掲示板に書き込んだ覚えがある。
メールアドレスも好きなキャラだった。一条京介君。

2005

シュウハルが好きでポケモンの掲示板とチャットに入り浸っていた。
2月に「まぼろし島のソーナノ!」を見て感動した。普段ポケモンの時間(木曜19時)はニュースの時間だったが偶然親が不在だったからリアルタイムで見れたのだ。その日の夕飯はファーストキッチンだった。
この頃から絵を描いていた覚えがある。文章は長編(冒頭)を掲示板に投稿して、感想も何もなかったのでアドバイスでもいいです!と言ったら、「『〇〇は素直に驚いた』という文章は『驚いた』でいい。もっと改行も増やして、読みやすくした方がいいかと思います」といったようなことを言われてもう一生やるもんかと思った。
友達に借りてBLEACHを読み始めた。BLEACHアニメがきっかけでわずかながら音楽を聞くようになる。人生で一番音楽に近かった。

2006

即売会に行き始めた。コミケもこの時期に経験した覚えがある。
当時の日雛の同人誌今も大事に持っている。

2007

ぷよぷよフィーバーチュー!と出会った。
個人HPとブログを周回していた。

2009

ぷよ主義に行けなくてめちゃくちゃ悲しかった。
私生活の事情があったのでもともと行けない予定だったのだが、当日ネットを眺めていたら紫陽花組の本があって、今から行こうと戸締まりまでしたけれど体調がすごく悪くて諦めたのを覚えている。

2010

9月にブログができた。ここ。ツイッターを始めた。ここではない。
ぷよ主義2に一般参加。初めてのオフ会。

2011

6月にもオフ会をした覚えがある。
9月ぷよ主義3「あじさい!!・満ちるもの」「××エンドからの逃亡」
初めての本を作るにあたってコミスタを買った。でもペン入れはうまくできずに付けペンで描いた。付けペンも慣れなかったので全然上手く描けなかった。絵に描いたような同人誌デビューエピソード。

2012

コミスタProがクリスタEXにアップデートされてラッキーだった。現在まで愛用しているが知らない機能ばかり。
10月ぷよ主義4「ウタカタ」「ふれきしぶる-FM62.0」
合同誌。生涯もう出せないかもしれないから出せてよかった。
ルヴォワールシリーズに出会ってここから国内本格ミステリを読み始めた。
11月にオリジナルの漫画を7ページ描いた。割と気にいっている。

2013

3月にツイッターアカウントを消した。
6月まで「海が恋う街」を書いていた。十万字。半年くらい書いていた気がする。そのくせ16日に間に合わなかった。
11月にブログを閉鎖して一回死んだ。

2014

8月に閲覧と壁打ち用と称して今のツイッターアカウントが立てられた。案外復活が早い。でもこの半年は本当に絵を数枚描いた以外創作活動は何もしていなかった。この時からコテハンがなくなる。
12月にpixivの投稿が見られ、生き返った。それ以前のは消した。

2015

1月CC100「遠雷と追憶」「4Ψ」
1月に艦これを始めた。嫁の概念を獲得。
9月「ヴァケーション イン ザ サナトリウム」「KARIMONOKYOSO!」
皿に絵を描いた。

2016

4月ぷよステ!「青いアズマヤ」
同人人生で一番はけなかった。世界で3人くらいしか持っている人いないと思う。気に入っている。
7月にアイドリッシュセブンを始めた。この時期ちょっと凹んでいて他のソシャゲも始めたが一つも生き残らなかった。
9月奇想館2「アルジャーノンゲーム」
pixivで小説用アカウントの高橋鋭輔君がひっそりと始動。文字書きにコンプレックス(複雑な感情の意)をもっている。

2017

3月TOS5「サンクチュアリの足音」
今までの本で一番長くて一番辛かった。

2018

5月にアルジャーノンゲームの再録をしたら原作者にリツイートとコメントをされた。はっきり言ってめちゃくちゃ嬉しかった。
7月奇想館大阪「Life is a game!」
元気いっぱいだったのでスペースに幟を立てた。
12月に「Re:valeラブコメ論」を投稿してブログが再開。以後、随筆論説日記等を掲載する便利な場として扱われる。

2019

1月にメギド72を始めた。
10月レンタルスペースでプライベート即売会(自称)を開催。オタクが人生で一回はやりたいやつができたのでよかった。

2020

2月TOS19「ボクの先輩」「荒野の作曲家」
特定の二人の外の人間に焦点を当てた本を出すことができ、成長を感じた。
高橋君本を出す。当日までスペNoが公開されないというめちゃくちゃな頒布をやった。広い世界から探しに来てくれる人がいて感動した。憧れの文庫サイズの小説本が出せてよかった。
6月、初めての自作キーボードを買う。

2021

麻雀を始めた。人を応援することなどを知り人生経験を積んだ。
10月Webオンリー「猫のいる町に帰りたい」
高橋君は今度は長編を出し、次々と人生のやりたいことリストをうめていった。高橋君の存在が公表された。

2022

引き続き麻雀る。五段と雀豪まで登る。
突然エロの練習を始めるがすぐ飽きる。
ずっとやりたいと思っていた文学の勉強を始める。

2023

1月「よるのけものたち」
アイドリッシュセブンの完結を見届ける。
1月からおよそ一ヶ月に一回エッセイ漫画を描き続ける。
2月の勉強会を皮切りにリアル麻雀の楽しみ方をようやく認識して麻雀イベントに出始めた。
今に至る。

ソシャゲのシナリオをテキストデータに変換する(OCR編)

本日若干突破口が見えたので書きますかね。
さて、前回は動画を切り抜いてテキストボックスだけの画像を保存することができました。これをテキストデータにしたいと思います。画像から文字を認識してテキストに変換する技術はOCR (Optical character recognition) と呼ばれるやつですね。pythonの場合はTesseractというソフトをpyocrモジュールから使うのが普通みたいですね。
このTesseract(てっせらくと)が厄介でバージョンによってやれることが全然違います。
v3.0x系はjTessBoxEditorというソフトを組み合わせてフォントを使った学習ができます。フォントがインストールされていれば(全ユーザーに対するインストールが必要)画像作るところから学習データを作るところまでやってくれます。認識する画像にゴミを加えることもできる。
ちなみにメギドのフォントはスキップEらしいのでLETSを契約していれば使うことができます(https://lets-site.jp/)。学生のうちに入っておけということです。
アイドリッシュセブンのフォントはアプリ内にクレジットされているようにニタラゴルイカなのでなんとBOOTHで買うことができます(https://typelabo.booth.pm/)。ウェイトはわからんが等幅04辺りではないか。ニタラゴルイカ、全然意識してなかったけどゲーム頻出フォントなんですねぇ(https://note.com/tsugumiarai/n/ndc0a9cf10a86)。
で、スキップEはほとんど上手く認識できたのですが何故かニタラゴルイカの認識が全然上手くいかず……。文字の種類が少なければ学習の回数を増やして精度を上げられるみたいだが、日本語だとそういう訳にもいかないし……。そう思うとアルファベットに対して漢字を含む日本語はOCRにおいて圧倒的なハンデ不利があるな……まぁ中国語に比べたらマシか……。
Tシャツに英語を書いてばっかの国みたいな話がありますが、日本語フォントがスタイリッシュになれないのはひらがなカタカナ漢字という全然形状の違う文字を含んでいる時点でもう全然まったくどうしようもないんだよな。勝てっこないのよ、アルファベットとか、アラビア語とか、あぁいう文字にさ。日本語のことは好きだが表記体系は好きじゃねぇ……。ちなみにTesseractの学習済みデータも日本語データには標準でアルファベットが入ってくる。入れないとまともに文章を識別できないもんな。すいませんね、お手数おかけしてね……。
話が逸れた。
それでニタラゴルイカが識別できなくてふてくされていたのですが一つ上のバージョンがあることを思い出しました。これが昨日。
v4.x系は安定バージョンの中では最新で、LSTMを使ったエンジンを搭載しています。響きがかっこいいですね。
LSTM (Long short-term memory) は自然言語処理モデルの一種で……私の理解するところで喋るとRNNの発展版で今まで入力された単語を適宜覚え適宜忘れながらも次にくる単語を予想するモデルです……。三ヶ月の付け焼き刃だからあまり突っ込まないでくれ。
要するにv3では文字を認識して一文字一文字テキストを認識していたのに対して、v4では読み取ったそれらをある程度固まった文章として認識して、自然な文章になるかどうかで文字認識の結果を調整……ということをしているんでしょう……おそらく……。
ただ問題はv4系ではフォントを使った学習ができないという点です。いや、正確にはあれ、Linux?あれを使えばできるっぽいんですけど、私はあれ系が全然できないのでできません。ターミナル、怖いよね。コントロールCが効かない時点でだいぶ怖い。
フォントのデータがあるんだから学習した方が精度いいに決まってると思っていたが盲点でしたね。フォントがせっかく手元にあったしね。使いたかったんだよね。わかるよ。
そういう訳でv4.1で試したら簡単でした。ニタラゴルイカの方はもう少し整形が必要そうなので(動画中でフェードアウトされたりするとフレーム抽出が厳しい)引き続きスキップEでいきましょう。
#モジュール呼び出し
from PIL import Image
from IPython.display import display_png
import pyocr
import pyocr.builders
import pprint
#OCR
def ocr(img, languages):
    tools = pyocr.get_available_tools()
    tool = tools[0]
    builder = pyocr.builders.TextBuilder(tesseract_layout=6)
    txt = tool.image_to_string(img, lang=languages, builder = builder)
    return txt
#フレーム抽出からOCRまで
def frame_ocr(frame_sel_list, c_max, language):
    text_list = []
    languages = language
    
    for i in frame_sel_list:
        temp = level_cor(i, c_max)
        temp = pil_con(temp)
        txt = ocr(temp, languages)
        text_list.append(txt)
    return text_list
OCR前にグレースケールをさらに白黒画像に変換してます。日本語学習データは2種類あるけど重いデータの方がいい訳ではないっぽい……。
結果。
blog_img4.jpg
壊れたラジオになってる部分はキャラ名が出てるところなのでしょうがないですね。白抜きの上に影付きになっているからなんか別の画像処理が必要そう。
肝心の台詞部分は……うーん7割くらいはあってる……?スキップEはv3の方がいいかもな……。
blog_img6.jpg
v3ではこんな感じ。
v4ではベレトの一人称が「僕」になってるのに対してv3は「濃」なのがそれぞれの特徴が出ていて面白いですね(本来は「儂」)。
これから調整はしますが大枠はできたということでよしとしましょう。
録画ファイル作るの面倒だな~。
参考文献

4コマ漫画を描くぞ

創作の話しよっかな。

さっき上げた4コマ漫画。
https://twitter.com/osmnkih/status/1271793355396009985/photo/1

元ネタツイ。
すっぱいコーヒー @osmnkih 6月10日
冗談のつもりで「役作りで髪切ることになったよ」って言ったらショックを受けて「切った髪貰ってもいい……?大事にするから……」などと口走るモモ
この時点では漫画にできると思ってなかったけど、(「切った髪の毛を貰う」っていうテンプレート的ヤンデレ仕草にもいろんな感情があるけどモモの場合は「グッズ」みたいなもんだよな……。なんなら出会った頃から伸ばしてるから「思い出のグッズ」だな……。年輪みたいに髪に思い出が詰まっているのかもしれん……。その場合ユキはあんまり引かないだろうからヤンデレ台詞と状況の落差が面白いな……。)まで考えたら4コマ漫画にできる気がしてきた。
【1コマ目】
「切ることになったよ」より、切り終わった後の会話にした方がショックがでかくていいな。髪の長さも「思い出のグッズ」を連想させる会ったばかりの頃の長さの方がいい。でもユキが髪短いと一瞬いつの時代の話かわかりにくくなっちゃうな……。この前同居時代の4コマ描いたし……。あっ背景におかりん置いて事務所の会話にすればいいか。最後モモもユキもボケっぱなしになって終わりそうだったけど、おかりん出せばツッコミが入るしな。いいぞ。これはRe:vale4コマ頻出テクニックなので覚えておいた方がいい。他、大神万理、九条天などでも同等の効果が見込める。
髪切った直後じゃないと「貰っていい?」が現実的じゃなくなっちゃうな。「さっき」って言わせとくか。テンポ崩れそうだし描き文字で。
【2コマ目】
「大事にするから……」の「そういう問題じゃねぇよ!」感が気に入ってるけどそこまでツッコミを入れるのは野暮か……。スタンダードでいいや。
なんか毎回こういう表情のモモ描いてる気がする。上手に描けるようになってきたかも。描き文字は台詞メモの中に一緒に突っ込んでおくと描く時忘れなくて便利だよ。
【3コマ目】
髪を中心に持ってきて顔も隠したくないから構図はこれ一択。あ~これ年輪ちょっと浮いてない!?ここにもおかりんのツッコミ欲しいんだけど……そうするとモモとおかりんの会話が漫画の中心になっちゃうな……。2コマ目、4コマ目のツッコミは削れないからおかりんはここには出せない……。例えがなくても通じるかなぁ……でも木もう描いちゃったしな……。うーん、さらっとモモの台詞として書いてツッコミは読者に任せるか……。補助として(?)入れとこっかな……。モモの台詞だとすると年輪って単語は出てこないな。えーと、切り株?開くか?きりかぶ?
【4コマ目】
「いじらしいじゃないか^^」系でもよかったが素直に喜んでた方が落差があっていいな。おかりんのポーズ1コマ目と被っちゃった。まぁいいか。Re:valeの戯れを前に微動だにしてないという表現になるし。
ウィッグであることには突っ込まないのがおかりんスタイル。今書きながら気がついたけど、年輪だとしても思い出が詰まっているのは頭頂部の髪であるべきだよな。まぁツッコミにしては難解すぎるからどうせ不採用だしいいか……。
【5コマ目】
この4コマの脇のやつという概念が好きなんだけど大抵全部描き終わった後に付け足すから結構面倒でサボりたくなる。サボると意図のわからない空白地帯が生まれてしまうよ……。
こんな感じでネームを描いてあとは線を引いてバケツで色を塗る。ここに関して今述べることは特にない。最近3Dモデルを導入して複雑な構図を描くのがちょっと楽しくなりました。
できた!
https://twitter.com/osmnkih/status/1271793355396009985/photo/1

4コマ漫画は4コマという縛りの中で一つネタを成立させるというルールがあるので、そういうゲームとしてはなかなか面白いと思っている。
このツイートも読んでほしい。
すっぱいコーヒー @osmnkih 6月10日
脱皮殻で抜いてるとこ見られて本体に尻尾の裏の鱗が柔らかいから使っていいですよって言われたホプ!?

ソシャゲのシナリオをテキストデータに変換する(フレーム抽出編)

ある日元気にソシャゲのオタクがはまったばっかりの時に作るメモを書いていました。

blog_img1.jpg
段々苛立ってきた。令和にもなってテキストを探すためになんでこんなことをやっているんだ?ロード時間、必死に記憶をたどってあちこちの章をうろうろする時間、話の冒頭だけチェックして→やっぱ違ったかも→いややっぱこの話の最後の方だわってやる時間。あ~全部無駄。
紙の本ってすごいな。テキストを大雑把に検索する方法って未だに紙の本が一番早い。シナリオ本が欲しい。次点でシナリオ検索ボックス。両方あるともっといい。ソーシャルゲームとしてのシナリオへの誠意……(「誠意」という言葉を私は世間で言う「愛情」のように容易に使いがちで宜しくないと思いますがここでいうシナリオへの誠意とはゲーム内でシナリオという要素が結局顧客の愛着、課金につながっていることを自覚した開発コストをかけろという要求を示しています)。しかし私は極めて理性的な人間なのでわかります。シナリオはゲームを起動させるためのインセンティブを担っているわけですよね。それからゲームのブランドとしてシナリオ本を出すためのコストも考慮しなければいけない。俺達は直打ちのtxtファイルでいいと言っても公式がそんなもの出すわけにはいかないんだ(でも突然WAVファイルを配布するゲームならワンチャンあるかもな)。
世は大自己責任時代。ソシャゲのユーザーも楽しみ方は自らで見いださなければならないとされる。
うーん、じゃあ自分でやるか。
オートモードで録画するとシナリオが動画として保存できるから、ここからテキストが抽出できればそれでいいだろう。本当は録画さえ面倒くさいがそこはもうどうしようもないので妥協しましょう。しかしシナリオのオート機能って到底人が読めない速さで流れていくけど、なんのための機能なんだろうね。もしかして公式としてテキスト抽出を推奨しているのかな?(自己の正当化)
#動画の切り出し
import cv2
import matplotlib.pyplot as plt
import numpy as np
import time
import winsound
def mov_info(cap):
    print(“フレームレート(枚数/second)”, cap.get(cv2.CAP_PROP_FPS))
    print(“フレーム枚数(枚数/second)”, cap.get(cv2.CAP_PROP_FRAME_COUNT))
    print(“秒数”, cap.get(cv2.CAP_PROP_FRAME_COUNT)/cap.get(cv2.CAP_PROP_FPS))
(出力)
フレームレート(枚数/second) 29.74832623603263
フレーム枚数(枚数/second) 12819.0
秒数 430.915
まずはopencvで動画の情報を調べてみます。動画というのはパラパラ漫画です。このデータは430秒の動画が12819枚の画像で構成されているという訳だ。これを全部保存、閲覧するのは無駄なので、この中から必要な画像を抜き出していきます。
# movieのキャプチャを配列に変換
def mov_cap(capture, triming, grayscale, frame_sp):
    frame_list = []
    frame_del_list = []
    frame_prev = []
    framenum_prev = 0
    counter = 0
    frame_ls = list(np.arange(0, cap.get(cv2.CAP_PROP_FRAME_COUNT), frame_sp)) + [cap.get(cv2.CAP_PROP_FRAME_COUNT)]
    while True:
        ret, frame = capture.read()
        if not ret:
            break
        frame = cv2.flip(frame, -1)
        #グレースケール
        if grayscale == True:
            frame = cv2.cvtColor(frame, cv2.COLOR_BGR2GRAY)
            
        #トリミング
        if triming == True:
            frame = frame[y1:y2, x1:x2]
            
        frame_list.append(frame)
        #1個目でないなら差を計算してframe_del_listに追加
        if frame_prev!=[]:
            frameDelta = cv2.absdiff(frame_prev, frame)
            frameDeltaSum = frameDelta
            frame_del_list.append(frameDeltaSum)
        frame_prev = frame
        framenum_prev = cap.get(cv2.CAP_PROP_POS_FRAMES)
        counter += 1
        if counter >= len(frame_ls):
            break
        cap.set(cv2.CAP_PROP_POS_FRAMES, frame_ls[counter])
                
    return frame_list, frame_del_list
できた。
動画から切り出された画像は 縦ピクセル数×横ピクセル数×3(RとGとB)の数字の行列で表現されます(正確には配列という)。どんな神絵師の絵も配列だと思うと楽しいね。「人間は突き詰めればタンパク質の塊(もっと分解すればアミノ酸)」みたいなもん。
配列の操作は簡単です。まずはテキストボックスの座標を調べてトリミング。その後、RとGとBの値の平均を取ってグレースケールに変換。こうすると配列の長さと次元が減って軽くなる。そのあと、前フレームの画像の配列と今フレームの画像の配列を引き算して結果を保存。これで値が大きく動いた時に、テキストが切り替わったと判断できるというわけ。テキストボックスをトリミングしたのが効いてきて、動画の途中でソロモンが跳ねたりしてもテキストの動きだけ判断できるんですね。
差分をヒストグラムと時系列の折れ線グラフで図示してみます。
blog_img2.jpg
いいね。
ヒストグラムが0に寄っていることは動画がほとんど動いていないことを示しています。頻度ががくっと落ちているところを「動いた」の検出閾値とすればいい、と。
折れ線グラフは定期的に動画が動いていることを示しています。これを見ると約xxフレームでテキストが切り替わるようなので、全てのフレーム読み込む必要はなく、yyくらいの雑さでも問題ないことがわかります(パラメーターを書くとなんとなくよくなさそうなのでやってみたい人は自分で調べてみてね)。
#フレーム抽出用
start = time.time()
frame_list, frame_del_list = mov_cap(cap, triming, grayscale, frame_sp)
end = time.time()
t = time.time() – start
winsound.Beep(523, 1500)
print(t)
上で書いた関数をこんな感じで動かしてみる。2分くらいかかった。
Rを使っていた頃は時間がかかる処理が終わったあと電子レンジの音を鳴らしていたけどpythonになってエラーみたいな音しか鳴らせなくなっちゃった。通知音なんてなんでもいいと思ってたけどないと寂しいな。
#配列2種から大きく変化している画像のみを抽出
def frame_select(frame_list, frame_del_list, threshold):
    frame_sel = [i for (i, j) in enumerate(frame_del_list) if np.sum(j) > threshold]
    frame_sel_list = [j for i, j in enumerate(frame_list) if i in frame_sel]
    return frame_sel_list
画像をダウンロードして見てみますか。
blog_img3.jpg
うんうん。
いいですね。一章で大体60MB、784枚か。画面がフェードアウトするところなんかでやや無駄な画像を保存している様子。これは閾値を上げても解決しなさそうなので許容としましょう。
これで終わりでもいいような気もするけど、検索の利便性のためにテキストファイルへの変換をやってみましょうかね。
次回に続く。
参考文献

春に買って嬉しかったもの

最近買って嬉しかったもの(買ってよかったものは君が君の金で買ってから君の価値観で決めるんだ)の話をします。
・乾燥機付き洗濯機
https://jp.sharp/sentaku/products/ess7d.html
これまで住んできた家が共用洗濯機つきの家だったので初めての購入だったが、奮発した。
洗濯という家事は様々な観点から本当に最悪だったから。
1. そもそもゴミが取れない
洗濯機が古かったとか洗濯物を入れすぎとかそういう事情もありそうだが、フリース生地の服が洗濯機内でゴミを吸着しまくり、洗濯が終わった後にそれをコロコロで取るという作業が発生して最悪。フリース以外もはたくとホコリ出るし。なんでよ。洗っているにも関わらずゴミがついているので、油汚れ等についても本当に落ちているか疑念が生じてくるのが最悪。
ニューで高等な洗濯機になってゴミが取れるようになった。洗濯パートと乾燥パートで2箇所ゴミ受けがあるのだが、洗う度にそこのホコリを掃除するのが楽しい。取れておるわい、と思うので。
2. 干す際の整形は無価値
これは私が言うまでもなく全人類が気がついていることと思うが干して畳むという作業は完全に無駄。
着る(服の形)→洗濯(無秩序な形)→干す(服の形)→畳む(収納に相応しい形)→着る(服の形)のうち、干している部分の整形作業は何の意味もない。耐えられんよこんなことは。
このうちどこかを省略するとしたら論理的に考えて選択肢は「服の形のままクローゼットに収納」か「干す作業をスキップする」しかない訳だから。でも論理的に考えると最も相応しいあり方は洗濯機がでかい部屋みたいになって「干した形のまま洗濯から収納まで一つの部屋で終わる」ことだ。そういう技術が開発された暁にはいち早く言及した貢献を評価して私が利用できるようにして欲しい。
3. 干すのが面倒
外は暑いし寒い。雨の様子とか気にしなきゃいけないのも嫌。そういうのは山にいる時だけで十分。
私は服に何も、全く、一切の興味がないのだが、興味がないからこそ服に関心を払いたくない。触っていたくもない。だからお金を払って手間をスキップする。よかったよかった。
・食洗機
https://panasonic.jp/dish/p-db/NP-TCM4.html
ドラム式洗濯機に続き所謂現代の三種の神器。これが欲しくて引っ越しの時に広い台所を条件にしたくらいだ。食器を洗うという作業はマジで最悪だから。
そもそも飯を作るという偉業を達成しているのに何故その上で更に働かなくてはならない?飯を作る作業はいいよ。創作だし。生産的だし。片付けは嫌でしょ。労働だよ。なんで飯を作るという褒められるべき作業をしたというのにその結果労働が発生するのか。作業が発生するタイミングも嫌。食事した後に働きたくない。
その癖洗わないと飯を作る作業が滞る。食器は無限ではないので。逆に言うと食洗機を導入して飯を作るハードルが下がった。最高。あとでスーパー行こ。たらこパスタ作りたい。
あとこれが全部と言えば全部だが、手が荒れる。皮膚弱いのに。洗濯物も手が荒れるから触りたくなかったところがある。これで残す濡れ家事は風呂掃除だけだ。あれも擦らずに済むスプレーが最近はあるらしい……。
食洗機、聞いてはいたがやや癖がある。どうしても場所を取るし、このサイズだと調理器具が入らなかったりする。あと食器の詰め方に工夫がいるとか(絶対に洗えてないだろって箇所が洗えていたりして謎)。でも、もうそういう癖も含めて君と付き合っていくって決めたよ……一生……。嘘じゃない、見てくれ、君のためにハンドルが取れる鍋だって買ったんだ……。
・コーヒーメーカー
https://www.delonghi.co.jp/products/detail/id/445
コーヒーを抽出する作業は前2つに比べるとそこまで最悪ではない。でもコーヒーを抽出している時間は台所に立ってティファールを持って完全に「コーヒーを抽出する」という作業にかかりきりになる。何様なんだ。たかが飲み物の分際で強気に出たな。毎日飲まれるからってつけあがるな。
今は粉を用意しているけど豆からでもいいなと思っている。ミルで惹く作業はつけあがってもよい。楽しそうだから。
コーヒーの味って正直そこまでわからないけどアロマ機能で淹れるとおいしい。赤いし小さくてかわいい。満足。
・サボテン
なんかやたら花がつく。見てると元気になる。