じn 俺的。 俺の実家に聖火が一時的に安置されることになって半年が過ぎた。|お望月さん|note

「まだ一緒にいたかった」結婚50年の妻、豪雨に奪われ…夫は絶句|【西日本新聞ニュース】

じn 俺的

他にも「」や「」に「」 「」と「」など集められていません 泣 シリーズ作品の『』が映画化されは最高峰のヤンキー漫画です! また先にクローズのキャラが気になる方はこちらもどうぞ! 是非最後までご覧ください! クローズ!俺的キャター32選!について 今回はワーストの個性豊かなキャターたちから32人を選抜しています! クローズなど別作品がメインになっているキャラはなるべく避けていますのでご了承ください。 また、おすすめのキャターなどいましたら理由と一緒に教えていただけると、私も新しい見方ができてより楽しめますので幸いです!! 作中では花木九里虎・蛭子幸一の2人に敗れており 卒業後は祖母の足のケガのため実家に帰省しています。 ですが、かなり名前はしられており、いたるところで顔を指していることから中学時代は相当な実力者であったことがうかがえます! 杉浦歩巳という小学生時代の友人?を守っていたつもりがいじめになってしまっていたことを反省し、そのことを本人に謝りに行くシーンがあるなど、人間味あるキャラです! 終盤は髪型もパンチパーマになっており、極道的キャラになってしまいました。 小林政成 マサ とは幼馴染で家族同然のように考えており、マサがやられた際は一人で仕返しに行くほどの熱血漢です! 強い相手にばかり挑戦することから、戦績は悪いと自身で話しています。 ・秀吉に次ぐ実力者 鈴蘭三大派閥の1つ岩城一派を率いている。 個人的に作中では結構好きなキャラ! 同期の覇者の佐島洋助に一度は勝つがリベンジにきた佐島に負けるが手を抜いての負けとされている。 外伝の『最後のWORST』では三年になっており、伊調一 イーピン のイーピン十番勝負で格付け一位になっていることから同世代最強の人物と思われる。 イーピンにはギリギリで勝利。 一年時に九里虎の部屋に入り九里虎を金属棒のようなもので殴ったところを返りうちにあったことがある。 花木 九里虎にとてつもない恐怖を抱いており、耳元で名前をささやくだけで飛び起きるほどのトラウマがあるようです。 なにかとかわいそうなお兄ちゃんです。 ツトムとはなんどか勝負をした過去があるようですが、決着はついておらずワーストの作中で再戦したところ僅差で負けてしまいます。 クローズ時代に一年で当時トップの美藤秀幸を倒し鳳仙のトップに君臨し頭角を現した。 大仕事として鈴蘭に挑むが最初から勝てないことを悟ったうえで挑み。 光政に鈴蘭の存在をを見せつけた。 その際ジョー個人では吉に勝っている。 作中ではキングジョーと、中島信助と並び新四天王の一角でもある。 クローズ時代にはキングジョーとやりあっているが勝敗は当人同士しか知らない。 互いのダメージ的に見てもかなりの接戦であったとうかがえる。 喧嘩ばかりするため何かと目をつけられていた。 その真意は人を思う優しさ故の行いばかりで人情深い愛すべきキャター! 実力を伝えるなら、鈴蘭の九里虎があと一歩でやられる可能性があったほど。 作中でどんどん成長していき、九里虎には計4度挑み負けている。 作中では事故により亡くなってしまう。 清広も実力はわかっていたが、納得するために鉄生と勝負する。 清広が正式に負けを認め鉄生が六代目頭に就任する。 引きこもりがちだった難波を連れ出してくれたのが鉄生だった。 のちに鉄生のいるに加入し戦闘で猛威を振るう。 内では鉄生以外ではやりあえるものがいないほどの実力者。 鉄生亡き後に七代目に席を残し将五を支える。 将五は鉄生から次の頭を密かに任命されており、周りも将五を押し上げる。 史上最高のとされるほど素晴らしいチームの頭である。 熱血漢で周りが見えなくなることもあるが、一本筋が通っている。 頭になる前は銭屋一家の小川千春を待ち時間が過ぎてもひたすらに待ち続けた。 将五がなんども勧誘したり、五代目副頭の柳から革ジャンを譲り受けるなど、入り前から注目されていた人物。 喧嘩漫画のクローズ、ワーストにおいて異質な戦闘スタイルで強敵を一瞬で無力化してしまう。 さらには冷静な性格からキレる頭脳で七代目戦線の行動に大きく貢献。 13歳から悪事を働いていた凶暴な男。 後に九代目戦線の頭となっている。 クローズ時代に総長になり統率を取るために坊屋春道に勝負を挑み負けている。 最後は他県に引越し引退している。 実力は鈴蘭の迫田クラス。 鈴蘭では武藤蓮次と仲が良い。 最初は鈴蘭に入学するも月島花に敗れ、退学している。 その後竜胆高校を制圧し天地軍団を作り、極悪人を次々ににおさめる。 作中では1人で勢力を拡大していく様や、その実力が描かれておりWORSTには必須のキャラである! E. Dの頭 190センチの身長がありモデル体型。 仲間思いで実力も持ち合わせており戦線の奈良明を倒している。 将五と最後にやりあい、負けてしまうが。 その後友好関係を気づき大勢力となる。 Dの副頭 E. Dの頭脳!藤代拓海と対戦するも、同盟を持ち掛けられ了承。 ともに萬侍帝国に立ち向かうよう行動する。 D先発隊 対戦線先発隊としての小林一善と衝突、勝負中に腹部に鉄の棒が刺さり搬送される。 その際に心配してくれた一善に感動し兄弟分となる。 Dの先発隊 畑同様に先発隊として突撃。 蹴り技が得意での円城と対戦し勝利している。 天善高校では二年時から頭を張っている。 作中ではラスボス的存在! 戦線の村田将五、鈴蘭の月島花に勝利している。 抗争時にE. Dの前川と勝負をし引き分けた。 中3の時点で警官6人で止めることができなかったとされる。 月島花に負け、動物病院へ運ばれそうになった。 まとめ.

次の

2019年、俺の読んだ論文50本全部解説(俺的ベスト3付き)

じn 俺的

1 始めに ねぇ??俺なんて大したことないよ?妙に皆さんが読んでみたいって言ってくれたから、稚拙ながら書くけど。 時間軸的な考えとか、投稿の使い分けとか、ハッシュタグとかトレンドの使い方しかかけないからね!?それでも良いなら読んでください。 コレっていう答えはないと思うので、1つの方法として捉えてください。 俺も毎日学ばせていただいております。 私は2020年2月から楽天ROOMにそして楽天アフィリエイトに至っては2020年4月(記事作成日時2020年4月末です)からです。 そんな私でもあることに気がついたらあ、コレなら稼げるだろうと。 楽天ROOMもアフィリエイトも、そしてAmazonアソシエイトも含めて使い分けることで収益は確実に上がるよね?と。 その手法です。 勿論新しいこと浮かべば実践して記事は追記していきますのでよろしくお願いします。 必ずしも売れるようになる保証はできません。 一つの手法として、試して見てください。 俺はこれがあってました。 ただそれだけです。 毎度ですが、総論ですので細かいことはTwitterでも受け付けています。 俺はフォロワーさんと仲良くしたいですし、大切にしたいと思っています。 一人で殺伐とやるより、みんなでワイワイ情報交換した方が楽しいですし長続きしますよ? ROOMもアフィリエイトも根底はお金儲けですが、それに特化しすぎると疲れますし楽しくない。 情報交換もできない。 って勝手に思っております。 それでも成果は出せています。 あまり複数のアカウントを使うことはシャドウバンが増え非効率的です。 あくまで私が実践した結果です。 こちらが私が始めた2月のアフィリエイト収益(未確定分含む)です そしてこちらが3月分(未確定分)になります。 増えてはいますが、どちらも大した額ではありません。 これはストック型のものをストック型として使わず短期勝負で使っていたからです。 使い方が間違っていたのです。 楽天アフィリエイトを使い始めた結果(4月27日現在)がこちらになります。 大きく成長しているのがわかります。 ただ必ずしもこれがアフィリエイトだけであるかというとそうではありません。 こちらをみてください。 楽天ROOMからの売り上げもそれ相応にあります( ROOMerさんのおかげもありますが) しかしながら、必ずしも全てがアフィリエイトがいいかというとそういうわけではありません。 専門外です。 クッキー情報をとる、送りつける等の意味がわからない方向けです。 (こんな認識でいればOK) アフィリエイト報酬が入る仕組みは、 ・アフィリエイト作成者専用のリンクを踏んでもらうことにより、リンク作成者を判別する情報を相手の端末に送ります。 この情報により(サイトに誘導したという広告)売り上げの一部が報酬として支払われます。 ・楽天アフィリエイトやAmazonアソシエイトの場合はそのクッキー情報は24時間(それ以降は消える)です。 楽天ROOMはその時限り(詳細不明)とも言われています。 ・Cookie情報は上書きされる(他の人のアフィリエイトを踏まれる等)ので、最後にクッキー情報をとった人の報酬になります。 4 楽天ROOMと楽天アフィリエイトの使い方(時間軸での考え方) 楽天ROOMは超短期と長期目線で、楽天アフィリエイトは短期、中期目線で使う。

次の

TVアニメ「やはり俺の青春ラブコメはまちがっている。完」公式ホームページ|TBSテレビ

じn 俺的

この記事は私が一人で2019年の 1年間をかけて作り続けた論文要約の 超大作記事です. 俺的ベスト3 第一位 Focal Loss for Dense Object Detection 物体検知のためのFocal Loss これは不均衡データに対処するための損失関数Focal Lossを提案した論文なのですが, とにかくそのシンプルさにやられました. 画像のFLの式を見てください. たったこれだけです. ptは正解ラベルに対する予測値なのですが, ptが大きければ大きいほど損失値をしっかり抑えられるように設計された関数となっています. 正解ラベルに対して0. 6と予測するサンプルを学習に重要視せず, 0. 3とか0. 1とか予測しちゃうサンプルにしっかりと重要視するのです. 自分も7月くらいまでは不均衡データに関する研究していたのですが, 自分が考えた多くのアイディアが結局Focal Lossの下位互換に帰結してしまうのです. しかもこの損失関数の汎用性は非常に高く, あらゆるタスクに入れることができます. ICCV2017• Focal Lossという新しい損失関数を提案した。 Focal Lossはデータに対する正答性に応じて動的に損失値を変更する。 物体検知データセットCOCOにおいてSOTA• FLの式がかなりシンプル。 FLではclassへの重みを正答性としたが他にもありそう。 F値を使うのも良さそう? 第二位 Class-Balanced Loss Based on Effective Number of Samles 有効サンプル数に基づくクラスバランス損失 第一位に続き, 付近データに対処するための損失関数の論文です. 真のデータの価値というものはデータ数ではない. という鋭い指摘とその解決策? を示した論文です. 例えば, 犬を認識させるために10,000枚のチワワの画像と5,000枚のあらゆる犬種の画像があるとします. データの価値は明らかに後者の方が良いはずです. このようにデータ数は真の価値を表しません. この論文ではデータをサンプルすればするほど価値は下がるということを前提として, サンプル数に依存した損失関数を提案しています. どのように損失関数を変化させれば良いかについても理論的に解析されており, 非常に奮い立ちました. ただ, 結局データ数しか見ていないことには少し残念です. CVPR2019• データ空間においてデータ点の近傍領域の重なりが存在するので、データをサンプルする度にその価値が減衰していくことを仮定し、classバランスした損失関数を提案した論文。 CBをResNetに適用した。 Long tailed CIFAR-10, 100とiNaturalist 2017, 2018とILSVRC2012において実験を行い、いい成績を納めた。 学習が進むにつれてデータは密集していくのだからepochに合わせて確率pは大きくなるのでは? 第三位 One-network Adversarial Fairness ひとつのネットワークの敵対的公平性 第三位は公平性に関する論文です. 非常にシンプルな公平性のためのin-process手法です. 画像のようにpenultinate layer 最終層の1個手前の層 から2つに分離します. 一方では普通にタスクを解いて, 一方ではセンシティブ属性 性別や人種などの差別的な情報 を予測します. 前者は普通に勾配を伝播し, 後者は負の勾配を伝播します. これのよって, penultimate layerはセンシティブ属性を予測できない特徴量を出力することになり, だんだんと差別がなくなるモデルが手に入るという手法です. どっか domain adaptation で見たことある手法なのですが, それでもやっぱりいち早くfairnessに適応させたことは素晴らしいことだと思い, 第三位としました. AAAI2019• より公平かつよりaccuracyなclassifierにするモデルFAD Fair Adversarial Discriminative model を提案。 任意の分類器の最終層に新たなレイヤーgを追加する。 x'からsのLossを消去するgを学習することができる。 COMPASとAdultで実験した。 Fairnessを失わせる攻撃でない。 俺の読んだ論文50本 基本的に, タイトル, 日本語タイトル 自作 を書いた後に• 受賞 あれば書いてる• URL• 投稿日• コメント と記載しています. 一般 Accurate, Large Minibatch SGD: Training ImageNet in 1 Hour 正確な大規模ミニバッチSGD: 1時間でImageNetをトレーニング• 大規模なミニバッチでトレーニングさせると精度が劣化するのが普通だが、それを改善した論文。 ImageNetを1時間で精度を落とすことなく学習できた。 Large-Margin Softmax Loss for Convolutional Neural Networks CNNのための大きいマージンSoftmax Loss• ICML2016• L-Softmax Large-margin Softmax を提案。 L-Softmaxはfeatureにおいてクラス内ではコンパクトに、クラス間ではセパレートにする損失関数。 これにより、正解ラベルに対する内積を上昇させる方法としてベクトルの長さを伸ばすのではなく、しっかりと角度をつける ベクトル同士を似せる ようになる。 MNIST, CIFAR10, CIFAR100, LFW 顔認証 において比較手法に勝った。 Strikingに引用され、比較されている論文。 SphereFace: Deep Hypersphere Embedding for Face Recognition SphereFace: 顔認識のための深い超球埋め込み• CVPR2017• A-Softmax angular softmax を提案。 A-SoftmaxはCNN角度をしっかりと考慮した特徴量判別を行わせる損失関数。 L-Softmaxと超似ている。 通常のSoftmax Lossを正規化, cosの形にし, マージンmを加える。 LFW, Youtube Faces, MegaFaceCallengeなどで比較手法に勝った。 Strikingに引用され、比較されている論文。 PyTorch: An Imperative Style, High-Performance Deep Learning Library PyTorch: 命令的スタイル, 高パフォーマンスディープラーニングライブラリ• python風なコーディングができてデバッグが簡単であるが売り. どのようなアーキテクチャなのかを説明している. やっとでたPyTorch論文 Limitations of the Lipschits constant as a defense against adversarial examples 敵対的攻撃に対する防御法としてのリプシッツ定数の限界• リプシッツ定数が理論的に制限があることを示した論文. また, 代わりとなる手法を示し, その限界も示している. 最後に, 今後の方向性などを議論している. adversarial attackの防御法としてadversarial exampleだけじゃなく, リプシッツ制約を加える方法もあるよ, でもリプシッツ制約 不均衡データ Focal Loss for Dense Object Detection 物体検知のためのFocal Loss• ICCV2017• Focal Lossという新しい損失関数を提案した。 Focal Lossはデータに対する正答性に応じて動的に損失値を変更する。 物体検知データセットCOCOにおいてSOTA• FLの式がかなりシンプル。 FLではclassへの重みを正答性としたが他にもありそう。 F値を使うのも良さそう? Class-Balanced Loss Based on Effective Number of Samles 有効サンプル数に基づくクラスバランス損失• CVPR2019• データ空間においてデータ点の近傍領域の重なりが存在するので、データをサンプルする度にその価値が減衰していくことを仮定し、classバランスした損失関数を提案した論文。 CBをResNetに適用した。 Long tailed CIFAR-10, 100とiNaturalist 2017, 2018とILSVRC2012において実験を行い、いい成績を納めた。 学習が進むにつれてデータは密集していくのだからepochに合わせて確率pは大きくなるのでは? Cost-Sensitive Feature Selection by Optimizing F-measures F値の最適化によるCost-Sensitive特徴選択• F-measureを最適化するように特徴量選択を行うことで、accuracyをよりよくする。 Max-margin Class Imbalanced Learning with Gaussian Affinity ガウス類似性を用いたマージン最大化クラスバランス学習• Affinity Lossという損失関数を提案した論文。 特徴量をクラスタリングし、決定境界のマージン最大化と、クラスターの重心の均一化を図っている。 exampleの特徴量fとクラスタiの重心wiの類似度d f, wi を定義し、それを用いることで、Max margin Loss: LmmとDiversity regularizer: R w を定義した。 Lmmはマージン最大化, R w は重心均一化の役割を持つ。 顔認証のデータセットLTFとYTFにおいて様々な手法に勝った。 Diversity regularizerの方に引っかかった。 均一化するのではなく、クラス間の類似度順の距離にするべきではないか。 Learning to Model the Tail Tailのモデル化学習• NIPS2017• long tailにおけるheadでのknowledgeをtailに応用させた。 MetaModelNetはサンプル数を増やしたときにモデルパラメータがどのような軌道を描くのかを獲得する。 long tailにおけるSUN397, Place, ImageNetにおいてヒューリスティックな手法に勝った。 Trainable Undersampling for Class-Imbalance Learning 不均衡データのための学習可能under-sampling• AAAI2019• 2019• 既存のunder-samplingは重要な情報を捨ててしまっている。 これを解決するためにデータサンプラーをパラメトライズし、強化学習で最適化する。 合成データセットとリアルデータセットの両方で提案手法の有用性を示した。 アイディアがそんなに面白くない。 強化学習に丸投げ感。 majority classのデータの良い捨て方とは一体なんだ。 Oversampling for Imbalanced Data via Optimal Transport 最適な移動による不均衡データのためのover-sampling• AAAI2019• 2019• 幾何学的な情報を使用することでover-samplingする。 これにより増強したデータはクラスの分布に従うようになる。 増強サンプルに基づく新しい正則化手法を導入することで、損失情報に応じてminority classの分布を移動させる。 toy problemとリアルデータセットのどちらもで提案手法の有用性を示した。 細かい手法をちゃんと読めていない。 Exploiting Synthetically Generated Data with Semi-Supervised Learning for Small and Imbalanced Datasets 小規模で不均衡なデータセットのための半教師あり学習による合成生成データの活用• AAAI2019• 凸組み合わせデータの有用性を検証し、合成サンプルにラベルをつける必要性をなくすことで、svmを用いた半教師あり学習でのこれらの教師無し情報として使用する。 敵対的攻撃 Generative Adversarial Minority Oversampling 少数派オーバーサンプリングの敵対的生成• GANを用いてminorityクラスのデータをoversamplingした論文。 oversamplingするG、クラスタリングするM、real or fakeを見抜くDのthree player。 Gが実データの凸結合としてデータを生成することで凸包性を保ち、実データの分布から外れないように制限している。 MNIST, Fashon-MNIST, FIFAR10, SVHN, LSUN, SUN397において他の手法を上回った。 Gは凸結合によって分布から外れないように制限されているが、最初からVAEのように分布のパラメータを学習すればいいのでは? Explaining and Harnessing Adversarial Examples 敵対的サンプリングの説明と利用• 機械学習がadversarial exampleに弱いのは線形性から説明できると指摘した論文。 線形性に着目してFast Gradient Sign Method FGSM というadversarial exampleを高速に計算する手法を提案している。 wを重みとすると、sign w の方向に摂動を加えれば出力を大きく変化させられる。 Virtual Adversarial Training: A Regularization Method for Supervised and Semi-Supervised Learning 仮装敵対トレーニング: 教師あり及び半教師あり学習のための正則化法• virtual adversarial lossに基づく新たな正則化手法を提案した。 virtual adversarial lossとは、入力に対する条件付き分布の"スムーズさ"に関する尺度。 SVHNとCIFAR-10の半教師あり学習においてSOTA mixup: Beyond Empirical Risk Minimization mixup: 経験的リスク最小化を超えて• ICLR2018• ERM Empirical Risk Minimization で起こってしまうトレーニングデータの記憶やadversarial examplesに対する脆弱性を改善するためにmixupというoversampling法を提案している。 ImageNet-2012, DRFAR-10, CIFAR-100, Google commands and UCI datasetsで精度を向上。 empirical riskだと同じデータは存在しないので、ただ平均をとってるだけになる。 近いデータには価値が少ないと考えると、データに大きさを持たせ、被覆度に合わせて学習率を変える方がいいのでは? The Limitations of Deep Learning in Adversarial Settings 敵対的環境における深層学習の限界• ピクセル単位で, あるターゲットへの勾配adversarial saliency map, S X, t [i]を計算する。 FGSMと異なり、JSMAは少数のピクセルにだけ摂動を与えるという特徴を持つ。 Practical Black-Box Attacks against Machine Learning 機械学習に対する実用的なBlack-Box攻撃• Black-Boxという状況下でも使える攻撃を提案。 Black-Box攻撃とはtarget modelの入力と出力ラベルしか観測できない状況のこと。 target modelの代わりとなるsubstitute modelを手元で学習させ、それを元のadversarial exampleを作る。 adversarial exampleはFGSMなどを用いている。 DNN APIに対して84. Distillation as a Defense to Adversarial Perturbations against Deep Neural Networks DNNに対する敵対的摂動への防御としてのDistillation• Distillationという既存手法を使って、adversarial exampleに対するディフェンスを提案した論文。 Distillationとは生徒ネットワークは教師ネットワークの出力値をラベルとして学習する。 これにより、犬と狼の類似度まで学習させる手法。 教師ネットワークの出力値に温度付きsoftmaxを使うことで、外れクラスの確率を増やす。 distillationに攻撃成功した論文 や、拡張モデル もある。 Imperceptible Adversarial Attacks on Tabular Data 気づかれにくい表データに対する敵対的攻撃• adversarial attack• adversarial attackは画像データに対してばかりだけど, 表データにも考えた論文. attackには気づかれにくさ imperceptible という概念が大切だから表データでも定義している. imperceptibleを摂動rとfeature importanceとのアダマール積のLpノルムとして, -Lとimperceptibleを最小化するようにxを編集する. 入力データのカテゴリカルデータを削除することでLのxに関する微分を可能にしている. success rateではdeep foolに負けているけど, 気づかれにくさでは勝っている. 目的関数に入れているのだから当たり前• 表データへの対応策が結局カテゴリカルデータの削除ってところが残念だったけど, しっかりと定式化してくれたのは嬉しい. 比較手法としてDeepFoolとFGSMが書かれているが, 表データに対する実装を公開してほしい... ドメイン適応 Domain-Adversarial Training of Neural Networks ニューラルネットの敵対的ドメイン学習• domain adaptationをadversarial trainingで解こうぜって言い出した論文。 1000回以上引用されてる。 埋め込み On Learning Density Aware Embeddings 密度を意識した埋め込みの学習• 埋め込み空間上でデータ点が密度の高い方向へ埋め込まれるように学習するDensity Aware Metric Learningを提案。 triplet lossのアンカーをデータの中心とする。 中心は従来手法では重心だが、ここでは重心近傍の重心へと更新する方法で決定する。 4つverのDAQLも提案している。 顔認証のSCfaceとFaceSurv、物体認識のCIFAR10とSTL10において、Triplet lossやQuadruplet lossやTriplet center lossなどを超えた。 そもそも密度の高い位置に中心を持っていくのがベストなのか?クラス内の少数派の移動距離が長くなるから間くらいにある方がいい気がする。 あと、中心の移動方法はあれでいいのか? 不確実性 Bayesian Uncertainty Estimation for Batch Normalized Deep Networks バッチ正規化されたディープネットワークのためのベイジアン不確実性推定• ICML2018• バッチ正規化がベイジアンモデルの推論であることを示し、バッチ正規化を用いた不確実性の推定方法MCBN Monte Carlo Batch Normalization を提案。 学習時, バッチ正規化に使用される平均と分散は選択されるミニバッチに依存するので、ランダム性が存在している。 あと、不確実性を定量的に示す新しい可視化の方法も提案した。 PLLとCRPSという定量的評価指標を用いて、実験を行なった。 様々なタスクにおいてベースラインを超えた。 可視化のところと、評価指標のところをあまり理解していない。 モデルにランダム性があればuncertaintyなら入力ベクトルに全方向の摂動を加えることでuncertaintyになるんじゃない? Striking the Right Balance with Uncertainty 不確実性を用いて正しいバランスをとる• CVPR2019• rare classはuncertaintyが高いという仮説の下、uncertaintyが高いデータに対して大きくマージンをとるように設計したLossを提案した論文。 class-levelではベイス推定でuncertaintyを考慮してクラス間のマージンを最大化するようにし、sample-levelではそれに加えて各サンプルを多変量ガウス分布でモデリングし, その二次モーメントまで考慮してクラス境界を調整している。 顔認証, 文字認識, 物体認識など6つのベンチマークにおける精度の向上を示した。 公平性 公平性に関する専門用語を少し書いておきます. fairness: 公平性 機械学習モデルの判断が人種や性別などに影響しない• センシティブ属性: 性別や人種など差別を生む属性• バイアス: 差別を生む諸悪の根源全般. 主にデータに潜むクラス間の偏り 上のfairnessの説明は定義ではありません. 直感的で適当な説明です. ERMではrepresentation disparityとdisparity amplificationが起こってしまう。 これを防ぐDRO Distributinoally Robust Optimization を提案。 A Survey on Bias and Fairness in Machine Learning 機械学習におけるバイアスと公平性に関する調査• 様々なbias, discrimination, fairnessに関する定義に近いものと様々なmethodが書かれている。 サーベイの中では割とわかりやすい方だった。 biasとfairnessの定義はためになったが、手法についての説明は何かしらの論文のIntroとかを見た方が良い。 Improving Fairness in Machine Learning Systems: What Do Industry Practitioners Need? 機械学習システムにおける公平性の向上: 業界の機械学習使用者が必要としていることは何か。 25個のML製品, 35人の現場の人に調査を行った. 調査の結果として, どのような領域にfairnessの需要があるのかを特定した. あんまり読んだ意味なかった... 笑 One-network Adversarial Fairness ひとつのネットワークの敵対的公平性• AAAI2019• より公平かつよりaccuracyなclassifierにするモデルFAD Fair Adversarial Discriminative model を提案。 任意の分類器の最終層に新たなレイヤーgを追加する。 x'からsのLossを消去するgを学習することができる。 COMPASとAdultで実験した。 Fairnessを失わせる攻撃でない。 Fairness Behind a Veil of Ignorance: A Welfare Analysis for Automated Decision Making 無知のベールの背後にある公平性: 自動化された意思決定のための福祉分析• NIPS2018• ロールズの「無知のヴェール」に基づいたfairnessの測定法を提案• COMPASとCrime and Communitiesで実験した。 Enhancing the Accuracy and Fairness of Human Decision Making 人間の意思決定における精度と公平性の向上• NIPS2018• 社会は専門家の決定に依存しており、その決定はunfairになりがち。 この問題にsequential decision makingの観点から取り組み、制約あり重み付き二部マッチングのsequenceに落とし込めることを示した。 自作データとCOMPASで実験した。 Online Learning with an Unknown Fairness Metric 未知な公平性指標を用いたオンライン学習• NIPS2018• 線形contextualバンディット問題 未知のmetricによってindividual fairnessに関して制約を加えた状況 におけるオンライン学習の問題を考察した論文. individual fairnessを満たしながオンライン学習できる範囲を示している. Fairnessを達成しつつ, どの程度精度を出せるかのトレードオフを検証している論文. バンディットアルゴリズムに関わるならしっかり読み直したい. Empirical Risk Minimization under Fairness Constraints Fairness制約下における経験リスク最小化• NIPS2018• fairnessを考慮に入れたempirical risk minimizationに基づいたアプローチを提案。 empirical riskとfairnessの境界線を統計的に導く。 Arrhythmia, COMPAS, German Credit, Drug, AdultでSOTA• Fairness Through Computationally-Bounded Awareness 計算的に制限された認識を通した公平性• NIPS2018• アルゴリズムがmetricに制限された回数しかアクセスできないという制約を課した。 metric multifairnessという新しいfairnessの概念を提案。 Fairness Through Awareness 認識を通した公平性• utilityとfairnessはトレードオフな関係で、これを解決するフレームワーク "fairness through awareness"を提案。 「fairな分類器なら似ている個人に対して似た扱いをするべき」というframework• 627件も引用されている。 多分fairnessの始祖的な論文。 Predict Responsibly: Improving Fairness and Accuracy by Learning to Defer 責任ある予想: 延期を学習させることによるFairnessとAccuracyの向上• NIPS2018• モデルがPASSと発言し決定をdownstreamに任せられるようにした。 これにより、accuracyが上がりバイアスが下がることを示した。 COMPASで実験した。 reject learningを元に考えたって言ってるけど、reject learning 否定学習 を初めて知った。 Evolution of collective fairness in hybrid populations of humans and agents 人間とエージェントのハイブリッドにおける集合的fairnessの進化• AAAI2019• 多分Multiplayer Ultimatum Gameで実験した。 Ultimatum Gameのマルチ版をするとかなんとか言ってるけどさっぱりわからん。 後回し。 Group Fairness for Indivisible Goods Allocation 分割できない商品の配分に対するグループ公平性• AAAI2019• グループfairnessは分けられない財においては公平性を満たすことはできない。 そこで、"up to one good"スタイルリラクゼーションを導入する。 Spliddit. orgからえたインスタンス Learning Fair Representations 公平な表現学習• 2013• group fairnessとindividual fairnessとaccuracyのバランスを考えた損失関数を定義することで、公平かつ精度の高い表現を学習する。 German credit, Adult, Heritage HealthPrize milestone 1 challengeで実験した。 Fairness黎明期の論文なので理論が非常にシンプル。 The Cost of Fairness in Binary Classification 二値分類におけるFiarnessのコスト関数• 2018• DIとMDという2つの指標を使わず、CSだけで評価できることを証明し、CSのために最適なclassifierはinstance-dependent thresholding of the class-probability functionであることを示し、後なんか定量化した。 二値分類のfairnessのコスト関数に関する記述が割とわかりやすくてよかった。 Transfer of Machine Learning Fairness across Domains ドメイン間における機械学習fairnessの転移• 異なるセンシティブ属性に関して生じるドメイン差を近づけるというタスク。 Task head, Fair head, Transfer headの三つのヘッドが同じreporesentationからそれぞれ最適化したいタスク、sensitive属性の値の回帰、domainの分類問題を解く。 fair headとtransfer headに関しては負の勾配情報を伝播する。 UCI AdultとCOMPASで実験。 ablation studyでもtransfer headの有用性を示した。 とにかくタスクが軽い。 複数センシティブ属性やセンシティブ属性の連続化や異なるデータセットなど、まだまだ拡張するべき。 Data Decision and Theoretical Implications when Adversarially Learning Fair Representations 公平な表現を敵対的に学習する時のデータ決定と理論的意味• FAT2017• adversarial trainingのためにどのようにデータを選択するかがsensitive attributeに影響するかどうかについて研究した論文. adversarial trainingのために必要なデータ数はそんなにいらないよ. という結果. Learning Adversarially Fair and Transferable Representations 公平の敵対的学習と転移可能な表現• OneNetとほとんど同じ事言ってる論文。 Transfer of Machine Learning Fairness across Domainsが引用している。 Certifying and removing disparate impact disparate impactの認証と削除• DIをbalanced accuracyと繋げた. 他の属性からsensitive 属性をどれだけ予想できるかに基づいたDIのためのテストを提案した. バイアスのmethodを示した. 提案したテストの有効性を保証する説明もした. protected attributeが予測されないようにinput dataにおけるprotected group間の分布を近づける. 編集後の分布が複数のprotected groupの間になるようにする. One-Netの比較手法として使われている. AIF360のpreprocessにある手法. kamishimaさんのスライドにも載ってる. Using Image Fairness Representations in Diversity-Based Re-ranking for Recommendations レコメンデーションのための多様性ベースのre-rankingにおいてfairな表現の画像を使用する• fairness-awareなre-ranking method, MMR Maximal Marginal Relevance を提案. post-processに分類される. できるだけ, 多様性をキープしながら, query iに類似している画像をレコメンドするように, rel i とsim i を凸結合したものを最大化するだけ. 拡張としてFairnessMRRも提案されている. individual fairnessを考慮している. 最適化しているので当たり前だが, relとsimとfairをいい感じに達成している. Brust? という画像を用いている. 画像系のfairはかなりめずらしい. 評価を人間が行ってるのが微妙? Decision Theory for Discrimination-aware Classification 差別を考慮に入れた分類のための決定理論• 2012• 差別を軽減するためにROC Refect Option based Classification とDAE Discrimination-Aware Ensemble• ROC: 出力値が0. DAE: ROCでは事後分布を出力するmodelしかできない. DAEはアンサンブル学種において全てのmodelが同じ値を出すかどうかでuncertainかどうかを決定する. AIF360のpost-processにある手法. ものすごく愚直な後処理をするだけ. Classification with Fairness Constraints: A Meta-Algorithm with Probable Guarantees fairness制約付き分類: 保証可能メタアルゴリズム• fairnessの指標を入力として, classifierを出力とするメタアルゴリズムを提案. non-convexな問題をlinear constrained optimization問題に緩和させる. 解釈可能にしている? AIF360のin-processにある手法. Learning Controllable Fair Representations コントロール可能なfair表現の学習• VAEベースのfairなrepresentationの学習. fairness制約を満たす中でrepresentationの表現力の最大化. 表現をzとすると, transferable 様々なタスクにxの代わりに使える でfairなzを学習する. ちょっと読み飛ばしたけど, あとでしっかり読みたい. On the Legal Comparability of Fairness Definitions 公平性の定義の法的互換性について• fairnessの手法が法的に問題ないのか検討している. Recovering from Biased Data: Can Fairness Constraints Improve Accuracy? バイアスデータからのリカバー: fairness制約は精度を向上させられるか? EOを最適化するとベイズ的な意味でモデルの精度が良くなる. 終わりに この一年間はとにかく論文を読みまくりました。 僕は電車通学に行きと帰りで4時間以上かかるので、その時間のほとんどを論文読みに費やしました。 この一年間で得られた知見はとてもとても大切で、愛おしいものばかりです。 最近は2ヶ月前ほどから自分のアイディアを固め、実装し、検証していっているところですが、そのアイディアもここまで論文を大量かつ綿密に読まなければ出てこなかったかと思います。 論文を読むことは非常に楽しいことですので、皆さんも是非是非たくさん読んでみてください。 そこで見えてくる最先端の世界は自分の世界をより一層大きくしてくれるかもしれません。 最後まで読んでいただきありがとうございました! 自己紹介 冒頭に書くと邪魔になるので最後にひっそりと自己紹介させてください。 名前 綿岡晃輝 学校 神戸大学大学院 分野 機械学習, 深層学習, 音声処理, 公平性 Twitter Twitterフォローしてね!.

次の