読者です 読者をやめる 読者になる 読者になる

Redundanz

僕の言葉は、人と話をするためにあるんじゃない。

機械学習

0923

DeepMindのsynthetic gradientsを試してみようと思っていたのだけど(weightの更新にbackwardを待たなくて良いのは魅力的である。しかし本当にうまくいくのか?)、Chainerで書くのは結構面倒そうだったので勉強がてら一から小さなニューラルネットを書いてみ…

0917

自分の気持ちというのもまた一つの言語ゲームである。気持ちに実体などない。生活の各場面において気持ちとして扱われる"表現"こそが気持ちの実態なのであって、その背後に本当の気持ちが控えているというわけではないのである。我々が自分自身を観察したと…

0815

MSCOCO Challengeは難航しています。なかなかきれいにInstanceを区別できない。論文を眺めた限りでは、最近の個体認識可能なSegmentation用のアーキテクチャはおおむね、ある個体における各要素の相対的位置づけを予測したのちそれらを統合するという方針を…

0531

ニューラルネットの学習においては、パラメタが多いほど悪い局所解に陥りにくくなる*1*2けれども、いちど良い解が得られてしまえば重みの小さなフィルタを取り除くことによってパラメタ数を減らすことができる。NVIDIAの論文*3によれば、性能を下げることな…

0528

好きな瞬間に散歩に出かけられるような人生を送りたいと思う。 どんな言葉も現実に対応してなどいないのだ、むしろ言葉はひとつの現実であり、現実が我々に何らかの制限を課すのと同じ仕方で、意味をもっている。 大量の人々を処理しているときの自動改札の…

0417

DCGANとRNNを繋いでimg2txtじみたことをやっているけれど、なかなかうまくいかない。一応それらしい日本語を吐き出しはするものの、内容が入力画像になかなか合致しないのだ。出力テキストにちょっと癖があるのも不味いのかもしれないが、そもそもGANはデー…

0214

すべて思想というものは自分を騙すためにあるのだ、という思想。言語を手にして以来、われわれは言葉と現実のギャップを埋めようと躍起になっている。だがそのギャップとはそもそも言語に内在していたのではないか?「メタ」という概念の功罪。 悟りとは、「…

0130

スピノザ「知性改善論」を読んでいます。優れた洞察や説得力のある論証も含まれているけれど、全体としては賛同できない部分が多い感じ。たとえばスピノザは単純なものに注目する限り虚構に陥ることはないと主張しているけれど、ここで「単純なもの」という…

0127

Deep Q Networkをトレーニングしていて気付いたことだけれど、Q関数をニューラルネットで近似したこの学習器は負の報酬を適切に学習できない。というのも、学習が一定以上進むと、負の報酬を得ることがなくなるために、ストックされている経験の中に失敗体験…

0322

昨日はバイト先から「一問解答を作成するごとに二千円」という案件が来ていて4問ほど解いてみたのですが全然割に合いませんでした。まあ時給にするとそれなりだけど、QOL換算で。多分僕は仕事と私事を分けるのが下手なタイプなのだと思います。自宅で作業す…