我自己:你说得对,今天能做的事不要拖到明天。
我:没错!快点,走,出门倒垃圾买水果,然后回来洗澡听书睡觉。
我自己:好的,我现在就开始做研究计划幻灯片。
#也算是没瘫在沙发上拖延了吧……(我会搞二进制这种西皮决不是出于偶然()
我看到一个人说,她无法同情底层男性,因为她会想到每一个底层男性也在压迫着自己的妻子。
啊我觉得很有道理,但是……
一个会酗酒家暴甚至买卖童养媳的底层男性固然可恶,但应该也存在遵纪守法、只是循着社会惯性而压迫女性的底层男性吧?
就像很多男性不知道自己到底吃了什么性别红利,但其实他们的工作机会就是比女性多一些。
我又想到,我不算是底层,那么我一定也正压迫着很多人。我生在一线城市,高考压力小,收入水平高,物价倒也没比二三线高很多。我接受好教育的机会、拿到好工作的机会、选择自己生活的机会,都是从底层人的手里抢过来的吧。这样的我,也嘲笑过别人没文化、没上过学。
那我有没有资格想,底层男性压迫着另一个女性,所以他们不值得同情?我有没有资格,产生这样的想法呢?
也许我只是想听到有人说服我,“你这种压迫与底层男性对妻子的压迫是不同的啦”,或者骂我一下“对!你和所有伪善者一样是在吃人呢!”
讲下去长沙玩之前就说要讲的环卫工人的事情,鸽了好久了。又臭又长,环卫工人的内容只占一点点
故事要从头讲起。我从小生活在一座北方小镇,是个又穷又破的小地方,经过几年的创文创卫有了一些起色,现在我要很努力很努力才能回忆起小时候它的样子了。人行道上的地砖永远是破损的,小超市的门口满地都是垃圾,上小学一年级的我傻乎乎地在门口捡过好久的雪糕包装袋,再大老远扔进垃圾箱里。随便闯红灯也不会有人管(不像现在连骑车过红绿灯都不让顺时针,本来过一次就行非要让你转三次),马路上到处是小商贩在摆摊卖吃食,地面泼得脏兮兮的全是油污。治安也不好,家家户户都安着防盗窗,因为总有新闻说小偷半夜顺着排水管爬进居民家里入室偷盗或抢劫;据说有南方商人来我们这里开店,想把店面做成玻璃门,美观又干净,结果被人劝你疯了吗,一个晚上就能给你砸碎——当时满街都还是用卷闸门。就是这样的小地方。
环境当然也不怎么好。一提起环境我脑子里首先蹦出的印象是风沙好大。上高中时沿着新修的路骑车,路两边是光秃秃被砍掉树冠的树,肉眼可见风里充满了黄色的沙,风沙大到骑到一半经常需要停下来揉揉眼睛流两滴眼泪。但是没办法,因为时间很宝贵,还是要骑着我的小车向这风里冲过去,像一个学畜堂吉诃德,头发里能梳出两斤沙子。上午课间,大热天也要绕着学校的大广场跑操,当然观赏性跟衡水中学没法比,但是领导喜欢。几千双脚下腾腾地飞起土灰烟气,一千米下来所有人都灰头土脸面若菜色。故事进行到这里环卫工当然一直都是在背景里存在着的,只是我当时和所有人一样从没认真留意过。在街上遇见穿着脏兮兮橙色马甲,骑着有个小屋顶的清洁三轮车的环卫工,心里会短暂升起同情的情绪,扔垃圾的时候会扔准一点——除此之外也没别的了,能指望一个每天只睡不到七个小时的小女孩想什么呢。
好像是我即将去上大学的那一年有了点转机。我们市里有了洒水车了!朋友们!洒水车!会唱我从山中来带着兰花草的奇妙玩意儿,我姐姐会跟着这个调子唱GAI的填词。因为有了神奇喷水小车,加上城区扩建得也差不多了,风沙似乎瞬间好了不少,不再会感觉鲜明地留在我干裂的嘴唇上。而这一切都要归功于我妈的一位牌友,本地一家环卫公司的老板,是该牌友老板在负责这项外包业务,为我们带来了干净的城市。为此我非常感激她,一度觉得妈在牌桌上多输点钱也是可以接受的。(当然输太多也不行,大人的交际圈实在好神奇,我今天才知道我妈的牌友里有的是老公五十多岁堂而皇之出去乱搞,带女友见家人的,有女儿搞小额网贷公司搞到两亿规模,然后消失跑路的。这些人居然都活在我身边耶……女巫再次睡前许愿拥有一把自己的锯管霰弹枪
关于环卫工人的事情,很多都是我妈从这位牌友嘴里听到,又转述给我的。ta们大多数是农村户口的老人,年纪大了家里儿子不赡养了,跑到城市里来打一份最最辛苦的工作。想想也是,城市户口的老人,哪怕有个片瓦遮头,谁能来受这种苦呢?工作很辛苦,工资很低,整体没白没黑地忙活,住在城中村里。当然ta们也不是什么样板戏里一样标准的穷苦劳动人民,人穷但爱岗敬业朴实善良,就像我一直很讨厌用“淳朴”来形容农村人,人性处处都一样,不可以带着居高临下的视角地审视比自己地位低的人——ta们会偷懒,会钻空子耍滑头,时常把垃圾偷偷扫进下水道里,等到上面有人要来检查的时候,又只能慌慌张张地连夜掏干净。比样板戏贫困人民更让人感到心酸。
牌友老板过年的时候会找朋友换崭新的小额现钞,为了给环卫工人们发工资,我不知道ta们有没有手机,可能即使有也不太会用微信支付宝收款。有一次牌友说,她手下的一对农村老夫妇,本来都在这里打工,有一天突然慌慌张张地过来辞职,说要回乡下了,说是家里的孙辈需要人照应。被牌友老板拦下。她跟两人说了一通,大概是,之前把你们俩赶出来打工的时候怎么没想着要照顾孙子呢,现在喊你们回去了,还不是看你们现在手里有几万块钱(一个月工资撑死了两千不到,不知道怎么攒下来几万块钱的,都是住在最破的地方,不舍得吃穿,没有冷暖气,连电都不舍得用,攒下来的几万块钱),现在你们手里有钱,有工作,回去了还不知道会怎样呢,还是想想再来跟我说。就这么把人拦了一下,这就是我们这里仅有的职业规划和心理辅导。但是最后他们会不会回去,我和妈都不知道了。
#诗歌视觉化
活动第65期题目:
在那些原始的岩石之中
鸟的精魂
——《森林》赫鲁伯
@VisualizingPoetry
#论文导读
#我也不知道老奶奶能不能看懂的论文导读
#AI模型可解释性
很长很长,图片也很多,想要得到比较好的阅读体验可以看我的博客:
https://blog.konata.co/?p=235
https://blog.konata.co/?p=259
或者公众号:
https://mp.weixin.qq.com/s/EeByEyHZpqvt38MmzxF22w
https://mp.weixin.qq.com/s/o7U5AtJxJxas5SZasXqcIg
@mature
———————————————————
【一】机器为什么知道猫是猫
所谓可解释机器学习,就是希望机器不但可以解答问题,我们还可以知道机器是根据什么解答出这个问题,所谓“知其然,且知其所以然”。大致上机器需要能回答两种问题,以物体识别为例,当机器将一张猫咪图片识别为猫咪的时候:
1. 为什么机器认为它是猫?
2. 对机器来说,所谓的“猫”是长什么样子的?
为什么让机器回答这个问题很重要?除了我们希望机器更聪明,更接近人类以外,其实有更多实际上的考虑。在实际生活中,当你在利用机器学习做决策时,你不能只给你的客户提供一个最终的解答,大部分时间你还得告诉他,你为什么这么做,例如,银行如何决定是否给一个人批贷款。又或者,你必须确保你的机器是真正学习到了如何做决策,而不是学到了数据中的偏见(bias),也就是通过检查机器学习是如何做决策的,来对模型进行诊断。
图一是一个辨识是否图片中有马的辨识器,作者用解释模型方法给出了DNN和FV判断图片中有马时“关注”的区域的对比,可以看到DNN主要关注点都在马和上面的人身上,而FV却在左下角有一个特别红的区域,很奇怪。结果分析数据发现,这个数据库里所有马匹的图片全是从一个相同的网站扒下来的,所以左下角有相同的水印。你以为机器学到了如何辨认马,其实它只是学到了看水印而已。这就是一个典型的可解释机器学习在模型诊断上的应用。
从模型的可解释性来说,最简单的线性模型有非常明显的可解释性。线性模型的每一个权值大小就直接反应了各个元素的重要性。然而线性模型能做的事情又是最少的,反而是被诟病为“黑盒子”的神经网络在各个领域上大行其道。一个相对兼顾了可解释性和性能的方法是决策树。决策树的结构本身可以很好解释机器做决策的思路,但通常在解决一个复杂问题时,决策树的结构非常复杂,甚至我们需要用到随机森林,所以可解释性和性能仍然无法很好兼顾。我们与其牺牲性能来换取可解释性,更好的一个选择是,通过某些分析方法,去解释那些好用的模型是如何工作的。
回到第一个问题,机器如何回答:“为什么猫是猫?”这个问题展开来讲,其实是我们希望知道机器做出决策凭据的是什么信息。对于图片来说,我们就是希望确定,机器是根据哪些区域得到答案的。一个比较容易想到的方法是,我们可以通过改变这些信息来看它们对结果的影响程度,例如我们可以对信息进行删减,或是加上一些变化。
考虑删减的思路,我们可以用一个框框,按顺序把图片的每个角落遮住,再丢给机器学习,让机器学习得出结果(这张图片是猫的概率),如图二,最左边的博美犬和它对应的概率图,概览图的周围几乎都是红色的,代表这些部分被遮住之后机器基本上都还能把图片中的博美犬认出来,但是脸部是蓝色的,说明这部分被遮住了之后,机器很难认出这是一只博美犬。如此一来,机器的判断依据就很显而易见。不过这种做法的弊端是,方框的大小和颜色都可能会影响最终的结果,需要人为设计。
另一个方法是,考虑每个像素的变化对结果带来的影响。给定一张图片,我们对每个像素加上一个小小的扰动,其结果也会产生一个小小的扰动,通过计算扰动的比例,也就是求偏微分,就可以得到一个saliency map。如图三,颜色越深的地方代表其信息对结果影响越大。
咋一看这么做还挺方便的,其实这个做法有一个比较大的漏洞。例如当我们考虑一个动物是不是大象的时候,我们可能会通过鼻子的长度来判断,鼻子越长,这个动物越有可能是大象。但是当鼻子长到一定程度之后,再继续增长不会让大象更像大象,也就是说梯度会很小,这种情况下基于梯度的算法就会失效。另外,联系上一讲的模型攻击问题,我们也可以知道,模型的结果会因为一些刻意设计的扰动变得很不一样,所以这样的方法很容易受到攻击。
#论文导读
#我也不知道老奶奶能不能看懂的论文导读
#AI模型可解释性
@mature
———————————————————
【三】机器眼中的猫长什么样
精 神 污 染 警 告 !!!
不推荐点开图片!!!
图一是Google开发的一个叫DeepDream[1]的项目生成的图像(容我称其为阴间玩意儿)。虽然现在已经过去了几个年头,不过当时刚出的时候倒是火了一把。这个名字取得很奇妙,人工智能会梦见电子狗吗?——会,而且还很掉san!
其实这个项目是为了理解,神经网络究竟是如何理解图片的。以DeepDream为例,我们训练出了一个分类器,可以把各种动物区别开,那么我们如何知道,机器眼中的猫长什么样呢?一种办法是:比如说你想要知道是怎样的图片会导致分类结果出现香蕉,那么你可以从一张充满了随机噪点的图片入手,逐渐调整图片朝着神经网络认定其为香蕉的方向变化。于是会出现类似图二的结果。
当然,聪明的读者们也一定记得我们曾经讲过模型是很容易被欺骗的(见:
),即使是一些看起来完全随机的图片,AI也可能给出非常肯定的判定结果。所以只是像上面那样做是不够的,还需要加上一些让图片内容看起来像是真实图片的限制,比如相邻的像素要有一定相关性等,加上那些限制后我们就可以从图片中看出一些香蕉的影子了。当然你还可以用其他类别生成更多的精污图,如图三。
这个系列的照片真的太精污了,我必须强调这是很早期的研究效果了!怪我这篇拖了太久!
聪明的读者们一定可以想到现在完全可以利用GAN来创造更好的结果,见:
。换句话说,上面的做法只是通过判别网络来调整图片,我们是否可以直接训练一个图片生成器,使其生成的结果也会被判定为对应的类别呢?这个图片生成器可以是GAN也可以是VAE,具体结构和原理上文都有提到,于是在这篇不再赘述,感兴趣的读者们可以再去复习一下~
分类模型是根据一张图片X得到其分类标签y,而图片生成器是根据一个随机向量z生成一张图片X。于是在我们这个任务中,就变成了我们要寻找一个随机向量z,使其生成的图片可以被分类为y。这个做法其实就是把上面对图片的约束进一步收紧:你必须是由真实图片训练得出的、能合成较为真实的图片的图片生成器生成的图片(有点绕XD)。相应的结果[3]也好很多,见图四。
不过我个人认为,这个更接近于“用分类器生成对应类别的图片”了。我觉得在人工智能的梦中,狗还是长图一这样的吧。
Reference:
[1] https://ai.googleblog.com/2015/06/inceptionism-going-deeper-into-neural.html
[2] https://www.youtube.com/watch?v=yORbWn7UsBs&list=PLJV_el3uVTsOK_ZK5L0Iv_EQoL1JefRL4&index=20
#论文导读
#我也不知道老奶奶能不能看懂的论文导读
#AI模型可解释性
@mature
———————————————————
【二】用模型解释模型
另外有一个更合理也更有意思的做法是,用一个可解释性的模型去解释复杂模型(禁止套娃)。如果我们能用一个可解释性的简单模型,例如线性模型,得到和复杂模型一样的结果,那我们就可以通过可解释性模型的结构来理解复杂模型。可是简单模型和复杂模型的结果怎么可能一样呢?为了解决这个问题,有一个方法叫LIME。如图一所示,考虑一维的情况,算法首先在我们想要解释的数据点附近对非线性的复杂模型取样,再用这些样本来拟合一个线性模型,得到和复杂模型在这个范围内相似的线性模型。当然这边也要注意采样的距离,过大也会导致结果偏差较大。
如图二,如果把LIME用在图片上,其第一步是对整个图片进行分割,把图片分为不同区域,再用线性模型拟合结果。考虑到图片维度问题,在线性模型之前加上了特征的提取。最后的结果即是一个长度为M的二进制向量,M是分割区域的个数,每个值代表了该区域是否存在。利用这些图片直接从复杂模型得到概率,再通过特征提取得到对应向量,用这一组数据训练线性模型的话,就可以很容易得知哪些区域对于最终的结果是重要的。
这边李举了一个很有趣的例子,他用自己的头像丢到一个识别衣服的判别器里,得到图三的结果。
实验袍很好理解,就是他身上穿的白色衣服当成实验袍了,可是为什么还有0.25的和服呢?用LIME进行分析的结果发现(见图四),原来是把他在镜中的倒影里的衣服当成和服了,这么一看好像确实有点像哦?
除了利用线性模型,还有一个办法是利用决策树。这个办法我觉得其实没有LIME直观只是有一个trick比较值得一提。对于决策树来说,一个决策树结构越简单,那么它的可解释性就越强。这个方法不是尽可能用一个简单的决策树去代表模型,而是在训练模型的时候就让模型对应的决策树尽可能简单,所以作者引入了一个正则化手段叫tree regularization,也就是在loss后加一项和决策树复杂度有关的项。决策度的复杂度是不可求导的,所以难以优化。作者怎么解决这个问题呢?万物皆可神经网络。他另外训练了一个神经网络(我要举报,这人套娃了两次!),可以输入参数得到预测的复杂度。然后再把这个神经网络拿来计算决策树的复杂度,神经网络肯定是可导的,这个问题就变得可以优化了。
简单版酸菜鳕鱼
在国内的时候蛮喜欢酸菜鱼,不过这里很少买带骨河鱼,就用现成的鳕鱼作了个迷你版的。
1)酸菜切小块不放油在锅里炒干炒香。
2)鳕鱼块吸干放一些牛油果油中火煎到两边略黄,但中间未必要全熟。
3)鳕鱼块捞出来后剩下的油,小火煎香姜片和压扁的蒜瓣,下泡过的红辣椒碎炒,我最后还放了几个切成小块的樱桃番茄。
4)因为没有鱼骨煮白汤,我索性用牛骨高汤,倒入做好的辣料以及酸菜一起煮,煮沸一段时间后把鳕鱼也放进去煮个几分钟至全熟,熟了就好,时间尽量短点。盛出后剪葱花。
不用醋和盐什么的,已经又酸又辣,鳕鱼非常吸汤汁的味道。多出来的汤准备下次做点酸汤肥牛!
小学生日记之今天吃了啥
星期六,起来吃昨天忘在烤箱里的面包布丁喝咖啡吃草莓,看电影,然后和妈妈打视频唧唧呱呱。用昨天炖牛排骨剩的汤煮挂面生菜,野人一样掰碎一个番茄放进昨天剩的炒虾仁里叮微波炉,用剩下的蛋奶糊再烤一个面包布丁。做这些的时候一直在看 Rick Stein 在西班牙吃吃吃,深受感召想吃鱼,切点蒜蓉打开油浸沙丁鱼罐头开始煎沙丁鱼,红辣椒紫洋葱切丁,把 Mozzarella 奶酪掰开扔进平底锅,撒香菜碎和盐。好几年不买新鲜辣椒发现辣椒真好吃,激动之下又捞出两条青椒来用泡沙丁鱼的油煎虎皮青椒。
一边吃所有这些一边用慈善商店淘来1镑四个的小酒杯喝掉两杯红酒,吃完了用少许盐胡椒孜然蒜粉辣椒粉及煎了虎皮青椒的油抹了半扇带皮羊排骨,旁边撒上半颗小小紫洋葱切的丝,扔进烤箱200摄氏度。一边回忆新疆馆子门口金灿灿的烤全羊一边洗这几天挤压的锅碗瓢盆。等到连回收用的冷鲜肉塑料盒子都洗完了,把烤箱关掉。掰开芒果发现已经变成酒,扔掉,改在平底锅上空剥橙子吃,吃完橙子漏出的橙子汁全落在锅里,打开烤箱浇在羊排骨上。不用酱或糖或红酒或醋抹,烤出来确实金灿灿的。明天只要再扔进烤箱热一热就好。小学鸡又度过快乐的一天🥳
其实姚安娜的所作所为并不一定值得现在这样全网挨骂。就算她值得,比她更该挨这顿骂的人也海了去了。在姚相关微博底下点赞评论“我国是工农阶级领导的,人民民主专政的社会主义国家”的人,也不一定真心相信这句话,不然怎么没见每条操蛋的离谱新闻底下都有人复读这句初中知识呢。只不过是荒谬惨淡的可悲现实和他们喂给人们的精神猪食幻化出的场景相隔越来越远,生活越来越荒诞,人群越来越麻木,只有在少数暴露在大众面前的矛盾集中时刻才会爆发。比如故宫开大G,工地打工人曹译文,华为“出格公主”姚安娜,此类事件对大众的情绪宣泄来说是必须的,谁撞上了也只能说该谁倒霉。这些时刻评论里怎么说“资本家你工人爷爷开了!”,平时还怎么给各种爹们下跪。当然为什么撞在大众枪口上的大多数是年轻“小姑娘”,又是另一种厌女体系在作祟了
在 TL 上看到一个可疑账号,装作一个官方发布,第一条嘟文就是生成它们有 verification(”认证“)功能,让人发 government-issued ID 和手机号私信。
(注:Mastodon 没有认证功能,昵称后面只要复制短代码实例支持的什么 emoji 都可以加到名字上)
后面几条嘟文也非常可疑.
账号:https://poa.st/@Mastodon
诈骗嘟文:https://poa.st/@Mastodon/105556255428986773
保险起见本站已将此账号封禁。请大家切勿上当。
#豆豉纪年
#今日的饭
分享一下我在漫画《招待不周》里学会的菜谱
顺便来安利一下这个很可爱的日常生活系美食韩漫
漫画里叫勾人卤蛋,我觉得名字超可爱的,我按照我的喜好随便改造了一下然后随便起名叫韩式香辣蛋了wwww
首先,煮鸡蛋,如果你不会……不难,学一下。
煮好了捞出来凉水泡一下剥好。
找一个保鲜盒,酱油和水一比一,大葱、洋葱、辣椒、蒜切碎放进去,然后加两勺糖,搅匀混合好。
把鸡蛋放进去。
倒上熟芝麻,盖好放冰箱里腌一晚上就可以吃了!
既可以当下酒菜也可以丢在煮方便面里,非常方便
#三楼小食堂特供
过桥豆腐
这是一个要连锅端上桌的菜
1.锅里倒进少量清水煮开
2.倒入内脂豆腐,厚切成片,推倒
3.打入4个鸡蛋在两侧,小火慢煮
4.蛋白成形后倒入一半调好的酱汁(豆瓣酱、白胡椒粉、辣椒粉、生抽)
5.另起一个锅热锅冷油炒肉末,炒至发白倒入剩下的一半酱汁
6.炒好的肉末倒进豆腐锅上
7.撒葱末、辣椒圈
和大家一样来自宇宙大爆炸——别问是第几次。
Like everybody, from the Big Bang. Never mind which one.
*二进制的船员绝不认输*