二色の浜海水浴

没错又去二色海滨公园了。去年没有玩到的今年要补回来。 上次来海里都是海藻,觉得很脏。这次来居然海水特别的清。站在岸边远远的看,海水蓝一块,绿一块,配着蓝天白云和黄色的沙滩,还挺漂亮。从来就没有关注过这块海滩的风景,仔细看起来还真不错。可以远眺关西空港,这个日本最大的填海造的空港,这是在海中央生生的填出一个岛,仍然透漏着曾经经济帝国的奢侈和任性。海岸是边密密麻麻的贝壳,这也是地名的由来————贝冢。 二儿子仍然玩不够泡在水里漂啊漂。大儿子继承了他爹的爱好,戴着潜泳设备在海里“探宝”。 上次来有些寒酸,只在附近买了两张批萨果腹。这次带来了游玩“标准”套餐————BBQ。吃喝玩,晒太阳。 也是因为要烤肉才把两个孩子吸引来的。 遗憾的是走的太早没有看到海滩日落。 这次在海里捡到: 章鱼1个(烤着吃了) 螃蟹3只(放生) 寄居蟹60多个(放生) 太阳镜1个 泳镜2个

二色の浜 海水浴

去年夏天一直都很忙,没能陪孩子去海边游泳。 昨天终于成行才发现居然离上一次海水浴已经2年了。不敢想象。而且所在的大阪是临海的城市。 这次去海边玩也是一时兴起,事前没做什么准备。 早上起来两个儿子说要去海边玩,反正也没什么事就陪孩子去玩吧。 一直想去日本海玩,日本海那一侧工厂少没污染,海水更漂亮,而且不少地方的海水像热带海岛一样,远远的看呈现着蓝色,绿色。 可惜一查离日本海最近的地方也要160多公里,两个多小时的车,实在折腾不起。 于是忍忍还是去关西空港附近吧,一个号称能远眺飞机起降的海滩。只是海草多一些,水脏一点。 不过对于孩子来说这些不利因素都是忽略不计的。 以前去海边就要BBQ,要准备炭,烤肉架,点火剂,烤肉帘子,烤肉夹子,一次性餐具,宿营的桌子椅子,地上铺的坐垫。 吃的方面要买BBQ的肉,烤的蔬菜,吃的水果,还有熟食,啤酒,饮料,烤肉酱, 还有泳装,救生圈,水镜,潜泳套装,海里浮的充气垫,防晒霜,换洗衣服…如果需要的话还有帐篷。 除了上面列举的应该还有遗漏。 SUV车厢后面堆的满满的,还要占到前面的座位上来。 每次去海边玩就像搬家一样,回来还要收拾东西。搞得身心疲惫。 决定出发已经9点半了,抓紧一切时间准备。这次打算轻装上阵,只带了椅子和桌子,桌子也只带了一个。去超市买了啤酒,饮料,买了几个面包。 网上查到海水浴附近有披萨外卖店,定了两张披萨。然后就出发了。 48公里的距离,高速跑了不到一个小时。到了先取披萨,扎营吃披萨然后两个小家伙就迫不及待的下海。 海水仍然那么脏,满是水草。很意外和前几年比海水一点都不臭。 两个孩子都学游泳几年了,在海里撒欢的玩。 老夫每次到海边玩总能抓到螃蟹啊章鱼之类的东西,这次也不例外。有八只寄居蟹聚在一起开会,被老夫一网打尽。 为了去冲绳潜水准备的水下摄像机也派上了用场。照了不少照片。 时间过得很快,孩子觉得冷要回车上暖和,看时间已经在海里玩了3小时了。 怕孩子玩累了着凉,商量两个人回家。 拿的东西少,收拾东西也快。在公园里冲了凉水澡,换了干衣服就驱车回家。 半路上吃了回转寿司,去水果店买了些水果。 到家陪孩子洗澡。 哄孩子睡觉。 两个孩子都很满足,下个礼拜还要去。

最近看的书

按时间顺序: 岛上书店,自控力,跨界,咨询的奥秘,创业维艰,信号与噪声,长尾理论,何必等来生,重新定义公司,マンション大崩壊,大数据时代,解忧杂货店,物流改革の教科書 还有好多书没读完就不列举了。 kindle上还有n本电子书连翻都没翻。amazon电子书打折很坑人。 感触是还是中国电子书最便宜。

2016年7月回国办户口

最近工作比较忙,还不得不请假回过办户口。要得益于伟大的户口制度,忙里偷闲回国一趟。 由于买机票失误无谓的倒机,以后要吸取教训,机票自己买,不能图省事交给机票贩子。那些人没有服务精神。 回国感触: 1,坐飞机没耳朵疼庆幸庆幸。有鼻炎,5月去冲绳坐飞机耳朵疼,半边脸都跟着疼。也是因为这个原因还的潜水只能漂在水面上。 2,锅内移动支付真tm方便,连小区的水果店都支持微信/支付宝支付。只办户口用的现金,其他的移动支付都ok。 3,PC卖场彻底没落。攒机⇨品牌机⇨笔记本⇨平板⇨智能手机、刚出国的时候正是笔记本大热,就连周边耗材也都如火如荼的。海龙鼎好还有太平洋都人头攒动。上次回国海龙就没几个商家了,有商家也都不卖电脑了。这次去通州的百脑汇,空荡荡的卖场里面布满了灰尘。只有2~3个商家聚在门口,难掩破败景象。 4,狠狠的解了把馋,吃烧烤,吃瓜,姑娘儿。

本地gitserver和github同步/ローカルgitサーバーとgithub同期

公司的代码都托管在github上,而project管理用的是atlassian。 自从atlassian的bitbucket正式release以后。 老板想把鸡蛋放在一个篮子里面,催促着从github上迁移到bitbucket。 理由是目前每个月需要向github和atlassian两个地方付费,迁移以后只向一个地方付费就ok了,减少支付流程。 不管老板的真实理由是什么,大家都用惯了github谁都不想迁移。 被逼的没办法,只说先用着试一试,于是就在公司建了个本地的git服务器。 大家只向本地服务器提交代码,本地服务器上配置两个remote,一个指向github,一个指向bitbucket。 前两个月有一次github宕机导致有两个小时没法用github,建本地git服务器以后就不会再有这样的问题。 而且所有的commit都能如实的反应到github上去,还能继续使用github上比较丰富的graphs,大家都很happy。 具体的实现一点都不难,随便google了几下有很多靠谱的文章。 步骤: git服务器安装配置,包括配置和github的连接(略) 做一个github的本地镜像 git clone –mirror $URL 各自开发环境的repo做切换git remote set-url origin $LOCAL_URL 追加git本地服务器的hook(xxx.git/hooks/post_recieve),将本地commit自动反应到github 因为权限问题自动将本地commit提交到github环节遇到一些周折。 git服务器用的是git用户,忘记给git用户追加github的key,导致向github push失败,开始以为是hook的问题。折腾了好久。

架设代理服务器

因为私事下周末要回国。 回国以后觉得最不方便的就是上网。 每天都用的服务都被gfw给封了。 为了不影响工作就不得不翻墙。 正苦于找稳定服务的时候,才想起来代理服务器自己可以搭建。 亏得自己还号称是程序员。 建服务器就不赘述了,分分钟搞定的事情。 为了安全要搞一个ssl加密。 再搞一个端口转换。 只自己用就好,认证的话basic就行,应该不会遭到攻击,不防备了。用户名和密码都变态一点也就够了。

将本地subversion的repos导入git

ec2上的虚拟主机上面一只跑了一个subversion的server。 server搬家以后,没安装serversion的server服务,里面的东西一直也没看。 今天想挪到git里面,公司的代码从subversion向git迁移做过,不过当时subversion和git都在服务启动的情况下。 不打算安装subversion,用本地文件试一试。 google了一下,因为subversion版本的关系,不少人很费周折。 用下面的命令试一下,出问题再说。 git svn init file:///var/www/svn/projectX projectX.git cd projectX.git git svn clone 没想到成功了。 然后接连的导入了若干repo。 人品爆发,lucky。

web crawler 抓站(2)

程序改写成php,抓站的时候出了问题。 用array来记录哪些url抓过,哪些没抓过,当数据少的时候还好,当数据多到几千条,用array_key_exists来查询的时候就会特别的慢。 用命令看,cpu被耗光了。 虽然说某些条件下isset会比array_key_exists快。但也不是靠谱的解决办法。 打算架一个memcached,服务器,这个东西查询的话,嗖嗖快。 应该能解决查询的问题。 明天再试一试。 以前实现过memcached缓存整个网页的程序。现在的wordpress因为插件少还算快。等插件都activate以后。怕速度就无法忍受了。 正好趁着架memcached把wordpress页面也缓存了,装满插件也不慢。

web crawler 抓站

有些网站上会提供很有价值的内容。 而这其中大部分网站都不提供feed,不能坐等数据送到面前就只能主动出击自己去找。 当然把这些网站加入bookmark,一个个访问用肉眼去看是解决方案。对于程序员来说,呵呵了。 所以一直在找一个抓站的工具。 曾经花费不少时间来安装调试scrapy,最终放弃。这个东西号称最强大的抓站工具。的确是太强大,以至于很难上手。 自己的需求也不过是访问某些网站的某些特定url,提取所有文本内容,供查询。 最终放弃用现成工具,决定自己再造轮子。 工作中用的jmeter,selenium,还有去年做的自动提交表单的程序等等都能派上用场。 所以还不是从0开始。 起初做了个java版,测试的时候顺便把某个电子书下载网站的所有电子书都抓下来了。 说道抓站,可能印象里就是偷东西干坏事。果不其然程序出来了,干正事之前先干了坏事。 要抓的网站不可能都一个结构,有很多不确定性。与php随心所欲的array相比,java对不确定性的处理显得有些无力了。 这两年一直用php对php更熟悉一些,所以又改写成php。 java和php都有自动解析html的工具,有的工具就是正则表达式的循环来实现的,性能方面有问题。 去年写的程序因为对性能要求,没有用自动解析工具,而这次的抓站程序对性能没有要求(如果访问太频繁反而容易被封,还要加延迟),所以就用了解析工具。和去年的程序比,整洁了不少。 php的程序,目前实现了用mongodb来存储抓站过程。 待开发功能: 用json配置文件,针对不同网站抓取不同内容 优化现有php程序,让代码更通用,适用于各种网站 做schedule来定期抓取 追加认证功能,可以抓login后的网站 用mean stack来展示已抓取内容 最后用mean结构来重写抓站程序,剔除php程序

(家里构建服务器之)端口映射

家里的网是光纤,很快很快。 网络设备列表: CTU,网络接入设备,带路由功能 wifi路由器,常用路由器 小米路由器,“尝鲜”购入的网络设备,因为不相信xiaomi的品行,时而通电,时而断电 macmini,有线接入CTU,无线接入wifi路由器 若干终端,接入wifi路由器 需求: macmini上用virtualbox构建若干服务器,需要从外网直接访问到这些服务器。 能功过域名访问(杂谈:因为一些历史原因,现在手里还有10几个域名) 家里的若干终端也需要用域名访问 网络安全 遇到问题: 通过修改CTU设置,让外网访问穿过CTU 域名和ip地址匹配 macmini上的虚拟机,不能接收端口映射 解决: CTU(防火墙里开放端口80,端口转换80->8080映射到macmini上) macmini(虚拟机设置,端口8080映射给虚拟机的80) 若干终端通过修改hosts文件来强制ip域名的匹配 80端口之外,只开放一个git服务端口,该端口只能执行git命令,用key来访问 待解决问题: 需要手动绑定域名和ip 没有固定ipCTU重启就会改变ip地址,以前通过域名商提供的软件来实现动态绑定,但该软件只有windows版本。可以在macmini上跑一个win虚拟机装这个软件 搞定内网的dns解析问题,放弃修改hosts文件的方法 过两天上图