発表への質問の難しさ

はじめに 「ご清聴ありがとうございました。質問がある方?・・・いないようですし時間も迫っているのでここで終わりにしたいと思います。」 自分の発表に質問がほとんど飛んでこない経験をした人は、少なくないのではないでしょうか。このような場面に遭遇…

2022年読んでよかった本

今年もそこそこ本を読んだ気がするので備忘録がてら。 現代思想入門 千葉雅也 www.amazon.co.jp 人工知能に哲学は必要だろうと思っていたので、いいきっかけになるかなと思って読んでみた。 著者の千葉さんは昔以下の記事を読んで知っていたが、なかなかどう…

2021年読んで良かった本

今年もそこそこ本を読んだ気がするので備忘録がてら。 日本語の大疑問 眠れなくなるほど面白い ことばの世界 今年はゆる言語学ラジオ(https://www.youtube.com/channel/UCmpkIzF3xFzhPez7gXOyhVg)というラジオにハマったのですがそのTwitterで知りました。 N…

2020年読んで良かった本

2020年はそこそこ本を読んだつもりなので備忘録的に記録をば。 新 企業の研究者をめざす皆さんへ 色々な企業・組織を渡り歩いてきた著者による様々な視点からの企業研究者の姿が描かれていて参考になる。数ヶ月に一回読み返している。実践はできていない。 …

トピックモデルを俯瞰して学ぶ

本記事は,自然言語処理 Advent Calendar 2019 - Qiita です. はじめに 本記事ではトピックモデルと呼ばれるモデル・分野の中で最も有名なLatent Dirchlet Allocation, 通称LDA*1 とその周りのトピックモデルに関して,どんな資料があるのか?,どういった研…

Why Didn’t You Listen to Me? Comparing User Control of Human-in-the-Loop Topic Models (ACL2019)を読んだ

Why Didn’t You Listen to Me? Comparing User Control of Human-in-the-Loop Topic Models *1 を読んだので軽くまとめようかと。 読もうと思った理由はトピックモデルだったからです、自分の守備領域なのでさらっと読めるかなと。 本論文はACL2019のshort p…

Jointly Optimizing Diversity and Relevance in Neural Response Generation (NAACL2019) 読んだ

Jointly Optimizing Diversity and Relevance in Neural Response Generation*1 を読んだので軽くまとめようかと (久々にまとまった文章を書く・・・。) 論文の流れに沿ってまとめます(断りがない限り図は論文からの引用)。 論文 タイトル: Jointly Optim…

グラフィカルモデルを綺麗に書く(未完成)

あらまし 「グラフィカルモデルを綺麗に描きたい」 という欲求は誰にでも存在する [要出展] 毎度のごとく、ペイントソフトやパワーポイントを使ってグラフィカルモデルを描くのはなんとももどかしい。 そんな悩みを吐露したら、綺麗に書けるライブラリを教え…

YANS2017に参加してきました。

2017年9月3日〜9月5日に沖縄で開催されたNLP若手の会(通称YANS)に初めて参加および発表をしてきたので、その感想について軽くまとめます。 参加に至る経緯 僕が所属している専攻および研究室は(おそらく)どこへも研究発表をしないでも卒業ができてしまう…