• Re: 生涯最佳个人表现输掉比赛,好郁闷啊...

    挺正常的,除非对手太弱或者实力carry,不然金牌数和胜率经常成反比。

    【 在 charlesgoo (vikkie的好lg·再见西班牙王朝) 的大作中提到: 】

    : 标  题: 生涯最佳个人表现输掉比赛,好郁闷啊...

    : 发信站: 水木社区 (Sat Aug  6 18:19:28 2016), 站内

    : 野队狂鼠杀人33个,伤害14000+,打了对方一个团灭上了最佳,最后比赛输了...好憋屈

    : 更憋屈的是还被队友喷说占点图不选肉怎么打都没用.............

    : --

    : 总喜欢说别人高分低能的,自己低能不低能不知道,但分多半是不高的

    : 总喜欢说别人人傻钱多的,自己傻不傻不知道,但钱多半是不多的

    : 说辐射有害健康的人一般都不知道辐射是什么

    : 说转基因粮食有毒的人一般都不知道基因是什么

    : 说再怎么怎么样(例如房价再涨)就移民的人,一般都没能耐移民,甚至很可能都没出过国

    : 谁强就黑谁(例如足球界黑梅西,篮球界黑库里)的,一般都是性格阴暗的loser

    2016-08-12
  • Re: 没事偷窥快速局路人的生涯

    主玩各种辅助的表示被无情的忽视了。

    【 在 puppis (毫不利己 专门害人) 的大作中提到: 】

    : 发现玩家大概分三种(大约都是100~2xx级的玩家):

    : 1、主玩突击英雄(不包括源和猎空)+狂鼠+毛妹/路霸,

    : 以上英雄的单次存活消灭数一般在2.4以上,而且

    : ...................

    2016-08-12
  • Re: 我也说说1:4对人工智能的可怕后果

    这个少先队水平的辩论……我撤了

    【 在 oldfar (fdf) 的大作中提到: 】

    : 标  题: Re: 我也说说1:4对人工智能的可怕后果

    : 发信站: 水木社区 (Tue Mar 15 18:42:57 2016), 转信

    : 你一句非正义就可以成为当逃兵的理由啦,高明。

    : 【 在 BePeaceful 的大作中提到: 】

    : : 如果我方并没有站在正义的一方,死亡概率又很高,我不去呀,有什么奇怪的么?

    : : 这事你拿道德的石头扔我都扔不着。

    : :

    : --

    2016-03-15
  • Re: 我也说说1:4对人工智能的可怕后果

    如果我方并没有站在正义的一方,死亡概率又很高,我不去呀,有什么奇怪的么?

    这事你拿道德的石头扔我都扔不着。

    【 在 oldfar (fdf) 的大作中提到: 】

    : 你回答我一个假设,你如果当兵,你们排有个战友被俘了,让你们排去拯救,现在按照概率肯定死的人不止是一个,你去不去。概率就坑你了,你跳不跳。

    2016-03-15
  • Re: 我也说说1:4对人工智能的可怕后果

    拯救大兵瑞恩,作为一种典型价值观,也是典型的伦理学问题,本来就是有争议的,

    并不是人人接受的。

    【 在 oldfar (fdf) 的大作中提到: 】

    : 标  题: Re: 我也说说1:4对人工智能的可怕后果

    : 发信站: 水木社区 (Tue Mar 15 18:30:26 2016), 转信

    : 必须不能接受啊,否则拯救大兵瑞恩有什么意义呢,明知道要肯定要付出不止一个人的代价去拯救另一个人,这就是我们人类证明我们是人的地方,我们是有感情的不是冷血的,不是由科学摆布的,我们只是利用科学。冷血的科学对“人类”没有任何价值。

    : 【 在 BePeaceful 的大作中提到: 】

    : : 所以说都有可能,如果要自动驾驶AI肯定要有避险避灾算法。

    : : 最终争论还是伦理学问题。

    : : 也就是AI做到事实上出错概率比人低的时候,人能不能接受。

    : : ...................

    : --

    2016-03-15
  • Re: 我也说说1:4对人工智能的可怕后果

    他的观点就是,个别人可以坑我,但你设计个机器有固定概率坑我不行,

    哪怕这个概率小于人坑我的概率。

    【 在 skyend (知者不惑,仁者不忧,勇者不惧) 的大作中提到: 】

    : 标  题: Re: 我也说说1:4对人工智能的可怕后果

    : 发信站: 水木社区 (Tue Mar 15 18:27:51 2016), 转信

    : 如果人类有这样的觉悟,为什么会允许女司机开车呢?

    : 你给我解释一下

    : 【 在 oldfar (fdf) 的大作中提到: 】

    : 我再重复一遍,人类的道德观或者底线是“不管怎样不能因为任何借口而明明知道却使别人陷入到生命的危险中,人不是冷血动物,每个生命都需要尊重。生命不能拿概率来衡量。” 对生命的尊重是人不同于动物的地方, 否则我们宁可不要任何科技,因为对生命失去敬畏随便可以判别人必须承受时刻处在生命危险境地的那不是人,是禽兽。

    : 【 在 skyend 的大作中提到: 】

    : : 这是两回事。

    : : 你可以反向思维这个问题,如果不用狗狗而放任女司机,本质是害了更多的人。

    : : 你们无非觉得被人撞死要比被狗狗撞死更加高尚。

    : : ...................

    : --

    : --

    2016-03-15
  • Re: 我也说说1:4对人工智能的可怕后果

    所以说都有可能,如果要自动驾驶AI肯定要有避险避灾算法。

    最终争论还是伦理学问题。

    也就是AI做到事实上出错概率比人低的时候,人能不能接受。

    现在看版上很多人是不接受的。

    【 在 lazygamer (lazygamer) 的大作中提到: 】

    : 标  题: Re: 我也说说1:4对人工智能的可怕后果

    : 发信站: 水木社区 (Tue Mar 15 18:22:52 2016), 转信

    : 恐怖分子袭击方式在AI预料之外啊。

    : 阿狗原来也是有大局观的。

    : 【 在 BePeaceful 的大作中提到: 】

    : : 另一种可能是,AI弄好了可以集体有序撤离,而人类就胡乱倒车各种撞车堵塞踩踏。

    : :

    : --

    2016-03-15
  • Re: 我也说说1:4对人工智能的可怕后果

    另一种可能是,AI弄好了可以集体有序撤离,而人类就胡乱倒车各种撞车堵塞踩踏。

    【 在 lazygamer (lazygamer) 的大作中提到: 】

    : 标  题: Re: 我也说说1:4对人工智能的可怕后果

    : 发信站: 水木社区 (Tue Mar 15 18:14:21 2016), 转信

    : 按狗的遇问题疯狂模式。

    : 一旦有人恐袭。

    : 成千上万的自动架势车。。。。

    : 【 在 lvsoft 的大作中提到: 】

    : : 你知不知道全球每年有120万人死于交通事故,

    : : 光美国就有3.3万人每年,相当于每天砸一架波音737?

    : : 人工智能驾驶是在救命好么。

    : : ...................

    : --

    2016-03-15
  • Re: 我也说说1:4对人工智能的可怕后果

    re, 对向车道远光灯,谁碰到谁懵圈。

    这种现阶段普遍存在的pitfall并不少,危害不亚于bug。

    【 在 skyend (知者不惑,仁者不忧,勇者不惧) 的大作中提到: 】

    : 标  题: Re: 我也说说1:4对人工智能的可怕后果

    : 发信站: 水木社区 (Tue Mar 15 18:07:25 2016), 转信

    : 人类的错误也没法用一些方法来规避的

    : 只不过大家都认了而已

    : 【 在 Jacqueline (花仙子◆唯有低贱,或能长存-M.J.<二月兰>) 的大作中提到: 】

    : 对,这种错误是不能用一些方法来规避的非逻辑性错误,所以很要命。

    : 【 在 oldfar (fdf) 的大作中提到: 】

    : : 但是飞机你会在每次起飞前检查其安全性能,消除其隐患。而人工智能驾驶你明明知道消除不了隐患你还用,你为什么不选择一条其他不用人工智能而更安全的方法,那还有道德么。

    : --

    : --

    2016-03-15
  • Re: 我也说说1:4对人工智能的可怕后果

    关键问题不在这里,因为人的事故率也不小,AI早晚可以改进到比人的事故率低。

    但是AI的事故涉及哲学和伦理学问题,争议会在这方面。

    【 在 oldfar (fdf) 的大作中提到: 】

    : 标  题: 我也说说1:4对人工智能的可怕后果

    : 发信站: 水木社区 (Tue Mar 15 17:53:44 2016), 转信

    : 这个结果当然看上去机器跟人下棋还下的挺好,然而意义也就如此。同时说明这个人工智能是不可能移植到其它方面,尤其是事关生死的地方。识想如果阿发狗这个人工智能移植到自动驾驶的汽车上会怎样?根据第四盘的结果,第78步犯错误阿发狗第80多步才反应过来,意味着这样的BUG一旦触发你可能接近撞车而人工智能还在加速。有人说消除这个BUG不就行了么,怎么消除?用更多的样本进行学习,问题是围棋的样本是无穷的,人工智能如何保证都学习到。这个BUG消除了凭什么相信就完美了没有其他BUG存在呢。这次比赛阿发狗的一些步数对围棋的启发还是很大的。另外人工智能应该定位为辅助人而不是自主。例如在汽车上当判断路况很好的时候让计算机进行驾驶,当判断路况复杂的时候应该由人来驾驶,人工智能必须和人配合才能有效。

    : --

    2016-03-15
  • 记者会怎么搞得这么差

    音频切换好混乱,还不如之前的非同声传译……

    2016-03-15
  • Re: 对第四局的一些看法

    是的,AlphaGo并不数目。在这点上来说,它比人更像“人”。

    【 在 dogcat (baby ) 的大作中提到: 】

    : 标  题: Re: 对第四局的一些看法

    : 发信站: 水木社区 (Mon Mar 14 16:01:56 2016), 转信

    : 刚好相反,很可能阿狗不会数目,对胜负判断只知道获胜概率是50%还是80%,

    : 而人类是基于赢了十目还是赢了三十目的精确数量。

    : 【 在 lengxinyi (水木郁闷男|我是好人) 的大作中提到: 】

    : : 如果一盘棋已经中盘负了,老师也不会要求学生坚持下完,肯定说哪哪不好,然后重来

    : : 怎样判断中盘负了呢?老师会认为在中盘时已经大幅落后于对手了

    : : alphago的胜率判断肯定比人类棋手要更准确和精确,所以人类的中盘就是它的官子,人类的开局就是它的中盘。

    : : ...................

    : --

    2016-03-14
  • Re: 阿尔法狗还会认输?

    当预测胜率低于某个阈值的时候就认输。

    【 在 RodinSophie (RodinSophie) 的大作中提到: 】

    : 怎么不下完全局

    2016-03-13
  • Re: 现在谷歌未必敢应战科杰

    嗯,paper写的还是挺清楚的。

    而且从深度学习的原理来说,单个人的棋谱数量也太少了,即使不是AlphaGo也是一样。样本对机器学习来说太稀疏,在获得泛化能力的过程中几乎被抹平了。

    【 在 mslonely () 的大作中提到: 】

    : 你这么确定?

    : 【 在 BePeaceful () 的大作中提到: 】

    2016-03-13
  • Re: 从这几天的解说来看,柯洁还是高现在的石头不少的

    很希望柯洁能战胜AlphaGo.

    不过据说DeepMind已经打算替代掉用KGS数据训练开局的部分,增强布局能力,

    说明AlphaGo的提升余地还是有的。到了那时,柯洁的机会恐怕真的小了。

    希望柯洁和AlphaGo的比赛越早越好。

    【 在 leezhch (大帅哥) 的大作中提到: 】

    : 标  题: 从这几天的解说来看,柯洁还是高现在的石头不少的

    : 发信站: 水木社区 (Sat Mar 12 23:40:23 2016), 转信

    :     和狗狗下可能会有机会。

    :   基本上小李不好的棋一下出他就喷。明显比其他高手的后知后觉高一筹

    :  而且就棋的内容来说,第三盘狗狗是完美,但一二盘还是有些漏洞的。 在不太直线的接触战方面我认为棋渣有机会。

    :  至于狗狗继续涨棋的问题,据说已经过拟合,也许到顶了

    :  柯洁也许能有三四成胜算

    : --

    2016-03-12
  • Re: 现在谷歌未必敢应战科杰

    wrong, AlphaGo的算法跟单个人的棋谱没那么大关系.

    【 在 anzhiyu (安知鱼之乐) 的大作中提到: 】

    : 肯定要研究科杰三个月先

    2016-03-12
  • Re: 我认可狗现在比任何人的实力都强,但是李喆的文章太跪舔

    没错。狗的价值网络给出的胜负(+1/-1)判断的误差(mean square error)为0.234,

    本身就不够准确,人在某些局面判断的更准是完全可能的。

    【 在 Estelle0807 (艾丝蒂尔) 的大作中提到: 】

    : 标  题: 我认可狗现在比任何人的实力都强,但是李喆的文章太跪舔

    : 发信站: 水木社区 (Fri Mar 11 19:33:18 2016), 转信

    : 不说任何主观评论,只基于一个事实推论:

    : 谷歌自己的原话:第二盘狗开局占优,中盘接近,之后甩开。用狗的语言翻译一下:开

    : 局胜率高于李,中盘胜率接近,之后胜率越来越高

    : 那么问题来了,如果狗果真如李喆所言,每步棋都选择了胜率最大的点,凡是人认为它

    : 下俗手都是人的三观需要刷新,那狗的胜率是如何从高于变为接近的呢?这可是它自己

    : 说的,不是人判断的

    : 合理的解释有两种:1、中间狗走了坏棋;2、狗的胜率判断有不准确的时候。而如果是

    : 情况1,狗走的棋都是它认为当前局面胜率最高的点,所以还是胜率判断出了问题。

    : 形势判断(在狗那是更直接的胜率判断)一直是围棋高手区分档次最重要的环节,综上

    : ,狗在这方面大多数时候做得比人要好,所以它的实力领先人类这我承认,但它还没有

    : 好到人已经不能质疑的程度。就事论事的说,它第二局很可能就是左下的定型出了问题

    : 。

    : 李喆这篇文章文采斐然,其实大多数观点我都赞同,但是全篇流露着一种跪舔的态度,

    : 真心不能接受!

    : --

    : “我还是支持拜仁慕尼黑”

    : 向世界的激情与理性致敬

    2016-03-11
  • Re:有兴趣的可以看看南大周志华教授的评论。

    前些年BAT的码农都这样,动辄“机器学习不行,我试过了”。

    根本不知道任何模型的特性以及构造feature才是重中之重,以为

    随便找个库,把原始数据随便拍它脸上就能给出好结果。

    【 在 ciwp (孤鸿~~水木基本只剩下神经病了) 的大作中提到: 】

    : 标  题: Re:有兴趣的可以看看南大周志华教授的评论。

    : 发信站: 水木社区 (Fri Mar 11 14:49:52 2016), 站内

    : 很多码农就这德性。比如深度学习很牛,他用深度学习搭过几个工程,就觉得他能碾压学院里没搭过的教授们了。往前倒几年就是Hadoop啊 pagerank啊LDA之类。

    : 【 在 aurozhang 的大作中提到: 】

    : :这个我也同意,但是部分网友说周老师是门外汉水平差,未免也太无知肤浅了

    : :【 在 maplesnow 的大作中提到: 】

    : :: 是有可能。最新进展也不是某个人就能说了算的,所以他说的未必就对。这个我完全同

    : :...................

    : --

    2016-03-11
  • Re: 分布式版AlphaGo对单机版的AlphaGo胜率大约是70%

    从Google论文中自述的内容来看,目前距离围棋上帝还非常远。

    2:0之后,网上的口风墙头草一样几乎全都倒戈认为结局是5:0,被打脸的可能性并不小。

    【 在 MountainKing (mk) 的大作中提到: 】

    : 标  题: Re: 分布式版AlphaGo对单机版的AlphaGo胜率大约是70%

    : 发信站: 水木社区 (Fri Mar 11 19:01:08 2016), 转信

    : 我觉得真的话也离围棋之神还很远

    : 之前人类就觉得离围棋之神差2子

    : 现在狗出来了,狗的极限是这种训练方法和数学模型的极限

    : 我不觉得这个极限能逼近围棋的上界

    : 【 在 qblyy (找美国程序员工作) 的大作中提到: 】

    : : 真的话,像围棋之神了

    : : 不过我觉得99%是谣言

    : --

    2016-03-11
  • Re: 其实应该单盲下棋

    看李目前的心理素质和思路,他要是知道对面是个薛定谔猫,估计更把自己绕进去了……

    【 在 PGP (---) 的大作中提到: 】

    : 标  题: 其实应该单盲下棋

    : 发信站: 水木社区 (Fri Mar 11 18:56:52 2016), 转信

    : 总共十场,随机五场对柯洁五场对狗,分开房间,这样李不知道应该能发挥正常了。

    : --

    2016-03-11