点我达老板是谁我想和点我达老板提潍坊汇领科技几个老板建议

点我达SVP谢新宇:没有最坏的时代,只有善于颠覆的野心_新浪黑龙江_新浪网
& 2015年延续的资本寒冬,让大批创业者被拍死在2016年的创业沙滩上。国内的互联网行业,BAT三巨头已建立起强大的生态帝国,电商、金融、文娱……他们以自身的资源和技术优势不断完善着各自的产业布局。很多创业者认为,目前互联网行业已被瓜分完毕,无法再建立与BAT帝国相抗衡的新型互联网格局。
&&&&而我国的传统行业,在被电商冲击之后,无一幸免,一直处于颓废之势。不管是一二线城市、而是三四线城市,这种影响在扩散并且在加剧。对年轻创业者而言,这些行业犹如烫手的山芋,怎敢涉足?
&&&&在这样的经济形势下,创业者该如何破茧而出?身处劣势就一定没有未来吗?
&&&&未必。在当前危机四伏的互联网创业声势之下,依然有一些公司脱颖而出。比如,目前国内最大的即时物流平台——点我达,在短短的一年半时间内,成为一家估值几十亿人民币的公司,知名的投资方阿里、创新工厂已纷纷抛出橄榄枝。点我达SVP(高级副总裁)谢新宇接受采访说:“现在的年轻人不愿提及梦想,这都是一种浪费。在这个时代,创业者都应该拿野心创造未来。”
&&&&他这句话,很好地诠释了一点:这个时代不缺少机会,而缺少一颗善于挖掘价值的野心。
&&&&野心,这个在很多人眼中毫无价值的东西,为什么有用呢?谢新宇说道,野心看似不能发挥,但是能借助时代发展之势的野心,就不一样了。他进一步解释道,目前,BAT等巨头林立,看似年轻人的创业机会受阻,但是这些巨头已经为中国互联网创造了稳定的、完善的基础设施和生态圈,而这些正是国内创业者不可或缺的资源。只有完善的生态圈才催生出像点我达这样可以服务数十万个品牌商家和上千万用户的平台。点我达之所以发展迅猛,依托的正是目前移动互联网的发展大势、阿里系的稳定的基础订单源保证以及基础服务支持等。
&&&&谈到这场资本寒冬,谢新宇也有自己的见解。他说这反而能让创业者有时间去冷静思考,去真正了解用户的需求,而不是跟着热潮,盲目投身到互联网创业中。同质化严重、缺乏核心竞争力、资金链断裂、对未来盈利模式把握不清是一些创业公司纷纷倒闭的原因。因而,点我达团队在做的就是极力避免类似的情况出现。
&&&&目前,他的努力颇具成效。物流行业,这个需要大量劳动力的传统行业,已被谢新宇带领的团队重新定义。“当时带了10多个同学在小黑屋里加班加点,”他笑着回忆,“只是花了20多天,就上线了点我达第一个版本;花了120天,达到了日单量35万。到现在,一年半左右时间,点我达已经是一家估值几十亿人民币的公司,但是也只有几百个全职员工。”点我达靠技术、产品和运营把物流变轻了,同时又带来了大量的就业,这对于社会也极具正面意义。
&&&&谈及如何进一步颠覆即时物流行业的野心时,谢新宇表示将从以下三个途径开展:
&&&&(1)更快:指的是配送速度更快。在即时物流行业中,通过平台的调度策略、便捷的产品操作以及合理的运营措施,让配送员在平台使用上越来越顺畅,从而整体提高送达至用户手中的效率。
&&&&(2)更全:更全面地覆盖即时物流的品类。从一开始的to B外卖切入,囊括快递、鲜花、水果、生鲜等众多品类,为任何有配送需求的场景提供服务。
&&&&(3)更准: 将配送时间做的更精准。现在的物流配送大多是隔日达、上午达、下午达,点我达希望能通过产品、技术和运营各方面的提高,将订单精确至小时,比如30分钟送达、预约明天上午9点送达,等等。
&&&&可以想见,这些都是点我达的核心竞争力和立身之本。
&&&&再历数一下目前被普遍看好的创业项目,除了点我达,还有Airbnb、滴滴出行、摩拜单车等。这些新生事物,都是靠依托互联网技术,改变了原有行业落后、粗放的增长模式,使得酒店行业、交通行业、物流行业转型升级,并逐步成为传统产业的复兴力量。从简单地满足用户需求到整个消费环节升级,提供更优质服务,节约用户时间,让他们把更多时间花费在值得浪费的事上。而这也正印证了谢新宇的观点——这个时代不算坏。只要有能力,只要能创造价值,那这么好的平台会把创业者的价值放大。
&&&&“不管在哪个行业,都要有改变这个行业的决心。”谢新宇的这句忠言,值得让所有还有梦想的创业者听到。&
01-06 16:01|分享
01-06 15:46|分享
01-06 14:44|分享
01-06 08:12|分享
01-06 08:11|分享
01-06 08:08|分享
01-06 07:51|分享
01-06 07:45|分享
01-06 07:42|分享
01-06 07:15|分享
新浪地方站一位创业家九死一生的王者之路 | 点我达赵剑锋_凤凰资讯
一位创业家九死一生的王者之路 | 点我达赵剑锋
用微信扫描二维码分享至好友和朋友圈
原标题:一位创业家九死一生的王者之路 | 点我达赵剑锋
7月21日讯:
一旦开始创业,你就应该知道:
一张叫“失败”的大网始终在你的头顶
拼命地打捞你;
如果恰好你又在互联网行业创业,
那么,恭喜你
踏入了一个血海尸山的战场,
要么一飞冲天,要么粉身碎骨,
不可能还有第三条路可以走。
今年是赵剑锋创建点我达的第三个年头,但其实他已经在这条路上走了9年。
2016年8月,点我达完成由阿里巴巴领投、饿了么跟投的近十亿元D轮融资。
如今,点我达平台拥有超过100 0000 的骑手,联接30 0000多家商户、多位终端用户,覆盖了150多座城市。
星星之火,可以燎原,从2009年的点我吧,到燎原的点我达,这一路走来,赵剑锋几次看到死亡的黑影。
“就算撞了南墙也不能回头,搭人墙也要爬过去!就算到了黄河也不能死心,跳下去,游也要游过去!”说起往事时,赵剑锋的眼睛里依旧迸发着一簇燃烧的火苗。
△ 点我达创始人:赵剑锋
2008年,解决了经济压力的赵剑锋萌生了二次创业的念头,彼时,经由他创办的地图数据供应公司已经发展地初具规模。
“没有行业天花板”,这是赵剑锋定下的方向,他想做一件有价值、有意义的事情。
几经分析,地籍测量与土地管理专业出身的他将目光锁定在了外卖配送领域。
“外卖是切入本地生活的最好方式,尤其是外卖的物流配送服务能够延展到生活的方方面面。”说做就做,2009年赵剑锋买下了杭州的一个团队,创建了点我吧。
高端品质外卖平台,这是点我吧的定位,为此点我吧采用自建物流体系的方式进军外卖平台行业,没想到的是,第一年就亏了380万。
2014年1月,春节将至,到处都是一片圆满的喜庆,赵剑锋却在深渊里挣扎着:公司没钱发年终奖了!
赵剑锋建议自筹费用给员工发年终奖,先让员工过个好年,再寻求融资。但两个合伙人却选择了退出——
公司等着发展,员工等着钱过年,而他,却成了孤家寡人。
“无力吐槽、无权悲伤、勇猛增进、一路向前。”赵剑锋在朋友圈里发了这句话。当初项羽破釜沉舟,背水一战尚还有一支团队,但这场战争,却只有赵剑锋一个人在奋战。
最后虽然凭借好友的300万度过了难关,但不过一年,点我吧却又陷入了更大的危机中:
饿了么获得了3.5亿美元E轮融资,美团获得7亿美元的D轮融资,阿里巴巴和蚂蚁金服共同投资60亿元创办口碑,百度外卖完成2.5亿美元的A轮融资……
资本巨鳄纷纷抵达战场,在普遍看好轻模式的市场大环境下,没有巨额资本加持还采用了自建物流这样重模式的点我吧,还有活下去的机会吗?
这是一段漫长的煎熬,赵剑锋一直紧密地盯着市场的每一分变化,就像一只被逼到了绝境的头狼,等待着反扑的时机。
最终,日,赵剑锋分析了点我吧的核心优势,自建的物流体系,决定将这部分物流能力开放,并且成立物流企业。
加班加点,不断地突破自己的极限,最终,从研发到测试仅用了26天,日,点我达平台正式上线。
从企业物流点我吧,一跃成为物流企业点我达,赵剑锋再次错开了逼向自己的死亡刀锋。
点我达平台仅上线7天就覆盖了10座城,120天后日订单量更是突破了35 0000单。
凶猛的发展态势,让点我达很快成为市场两强之一。但也让点我达陷入了亏损的漩涡:每天亏损100多万!
赵剑锋觉得自己掉进了一个巨大的无底洞,黑不见底。
“我有想过有朝一日成为千万富翁、亿万富翁,也梦想着我的名字有一天能出现在福布斯排行榜,就是没有想过会成为这样的‘百万负翁’。”
无奈、焦虑,更多的是对命运的不甘,赵剑锋启动了点我达的D轮融资。
很快,点我达和一家投资机构达成了意向合作,融资总金额高达10位数!
然而,赵剑锋没有想到的是,这却再次成为悬在他头顶的致命利剑——谈好的融资,最后却被放了鸽子!
2016年春节期间,赵剑锋去爬了次黄山,他坐在光明顶看着太阳一点一点落入层叠的山峦,霞光晕染了大半个天幕——美得过于悲壮!
“登上顶峰不是为了让全世界看到我,而是为了让我看到全世界。”赵剑锋写下了这句话,向这个世界再次举起了反抗的大旗。
开始上班后,赵剑锋将投资机构反悔的噩耗告知部门负责人,迅速做出收缩业务、大裁员的决定。
几天之内,点我达以雷霆之势从20多个城市撤回业务,裁员1000多人!
点我达重整旗鼓,再次开始融资,最终于8月份拿到了由阿里巴巴集团领投、饿了么跟投、原股东继续增持的近十亿元D轮投资。
很快,借助阿里一系列资源,点我达开始了稳健的发展,最终成为了国内最大的末端即时物流平台。
利剑在握,众志成城
上午10点开始接单,下午三点吃饭休息,5点接晚高峰的单,夜里10点休息。
这是小周一天的行程,也是100多万点我达骑手中绝大多数人的生活作息。
“我们到公司培训,学习一些接单和抢单的操作规范,还有接单送单时的服务细节要求,这些真的很有用。”
半年前,小周自己买了辆电动车,接受新人培训后成了点我达的骑手。
小周是今天截止目前的单王,已经接了100多单,热辣辣的太阳下,他却笑得很满足:“点我达的费用比其它平台要高一点,接单也比较多,派送不用绕来绕去,很快的。我白天跑跑午高峰、晚高峰,夜里再跑几单夜宵,不怎么累万把块钱就到手了,要想再累点儿,收入会更高。”
拥有100多万名骑车的点我达,每天都有近10万名跑单的骑手,这样庞大的规模却能有条不紊地运作着,完全得益于过硬的技术实力:
第一,众包领域唯一一家采用全自动智能化派单的平台,通过系统精确的计算,匹配最佳骑手,大大提高了效率;
第二,首创的无分区技术,极大程度上扩大了配送员的配送半径;
第三,能够基于实时数据系统地统计计算每个区域、商家的订单压力,再通过智能派单实现运力供需平衡。
其它平台,5个订单一般需要5名派送员,但点我达只需要1.6人就可以完成5个订单的派送,而且不会有绕路的情况。
“智能调度有几十个综合考量的维度,但归根结底就是时间要素的考量。”赵剑锋进一步解释,系统会综合订单的品类、骑车的等级和技能以及当前的配送状态、用户体验等要素,最终转换成时间概念,智能优化派单与并单。
服务了用户,也方便了骑手,一举两得。
“作为国内最大的即时物流平台,点我达也致力于成为国内3亿蓝领的职业发展平台。”
在点我达,骑车不仅能够获得配送多样化订单品类的技能,通过培训还会获得家电维修、手机贴膜等围绕劳动力的服务技能。
“点我达骑手的专业素质比较高,客户的评价比较好。”这也是30 0000多商家选择点我达的原因。
从骑手到商家,从点我达平台的发展到3亿蓝领的职业发展,浴火重生后的赵剑锋带着点我达,肩负着越来越多人的期盼,在王者的这条路上越走越远。
文 | 王铁蛋&Yolanda
图 | 点我达& 新零售100人
视频 | 新零售密码
用微信扫描二维码分享至好友和朋友圈
凤凰资讯官方微信
播放数:1867822
播放数:497040
播放数:1443945
播放数:5808920点我达大数据业务介绍 - 为程序员服务
点我达大数据业务介绍
点我达大数据团队初创于2015年,随着公司业务发展,大数据对于公司的业务发展发挥了越来越大的作用,目前服务的用户/团队包含BI、产品运营、运力中心以及技术内部应用的数据服务等
目前大数据主要的结构如下:
从最下面一层往上依次为:
一、接入层
a) dataX是一个ETL工具,阿里出品
b) 采用Framework + plugin架构构建,幸运的是自带了常用的插件,比如MysqlReader、HdfsWriter等
c) Standalone,无中心,每个实例之间无关联
d) 性能强劲、相对于sqoop,配置更简单
e) 稳定高效,我们引入DataX以来,从来没有在数据传输上出过问题
2、DTS/Canal
a) Canal是基于Mysql binlog变动,实时同步数据变化的工具
b) DTS是阿里云提供的一套数据产品,原理和Canal类似,我们想监听某个表的变动,只需订阅,就可以获取到数据的实时变化
c) 迁云之后,主要使用DTS
d) 数据落地我们使用kafka,topic一般是schema.table_name
e) 消费方一般是streaming、airflow调度的spark作业等,计算后的数据二次落地在redis、hbase、es等数据集群中
3、Logstash
a) 因为配置相对于flume简单,并且和elasticsearch、kibana紧密结合,我们的应用日志大部分使用logstash进行收集
b) logstash将日志落地到kafka,我们的计算引擎进行计算
a) flume主要是采集了移动端的track log,用于计算骑手的轨迹
b) app和flume之间我们搭建了一个nodejs写的web应用,示意如下:
二、存储层
存储层包含hdfs、kafka、hbase、redis和elasticsearch等,其中redis、hbase、es作为数据二次落地(最终计算结果)的存储介质。
首先如果数据结构符合kv结构,首选redis,因为redis非常快,毫秒级别,哪怕mget一万个key。
其次对于需要多个查询条件进行检索的数据,我们一般放到hbase中,应用通过phoenix引擎读取hbase,hbase如果rowkey设计合理,几十毫秒的rt是可以满足的,但是如果设计不合理,那是非常缓慢的,设计rowkey时,可以把能够过滤最多记录的key放在rowkey最前面,依次类推。
3、elasticsearch
对于写少读多的数据,而且检索条件非常丰富,我们放到elasticsearch中,比如历史订单查询。
三、计算层
1、Hive(MR)
a) hive主要用于离线数据分析
b) hql能实现大部分场景的数据统计,复杂处理逻辑使用hive udf,hql中调用udf函数就可以了
c) 分区方案采用按日分区的,部分表使用日期+小时+分钟的分区方案
a) spark我们主要使用spark sql和spark streaming(当然包含spark core),前者主要处理批处理和交互式查询,后者用于实时计算,spark mllib暂时没用到
b) 大部分实时处理使用spark streaming,吞吐量高,并不需要纯实时和高可靠地事务机制,
c) 为了便于管理,和hive mr一样,统一使用yarn调度,后续可能考虑部分小内存的spark job使用standalone调度
a) storm用得不多
b) 主要是云上的dts任务和云下仪表盘的influxdb writer
四、调度层
Yarn(MR2)上面跑了两种作业:hive和spark作业
a) hive(mr) job
hive作业一般是airflow调度的每日例行作业,或者是数据分析人员(技术、bi、运力、运营等部门)通过hive cli、hue等工具提交的离线作业,运行在root.default队列上。可以自定义Map/Reduce Container的资源大小,如在hive中分别指定:
set mapreduce.map.memory.mb=4096;
set mapreduce.reduce.memory.mb=4096;
b) spark on yarn
在yarn上运行的spark作业分为streaming作业和spark批处理作业,分别运行在root.spark和root.airflow队列上。可指定driver、executor占用资源:
$SPARK_HOME/bin/spark-submit --master yarn --deploy-mode cluster --queue spark --executor-cores 1 --executor-memory 2g --num-executors 1 --driver-memory 1g --driver-cores 1
2、Airflow
a) 我们的daily任务、5/15/30min任务都靠airflow调度
b) 一个支持dag(有向无环图)的任务调度工具
c) 一个任务失败了,它的所有downstream任务都是失败的,都不会运行,保证了数据的正确性
d) python编写,配置比oozie简单
五、OLAP层
1、hive数据仓库
hive数据仓库是任何大数据平台中基础的基础,任何业务数据都按照某种分区规则存放在此,是各种计算引擎的数据基础。我们在设计hive仓库时,根据hive表的作用范围划分为几个命名空间,分别是:
ODS(Operational Data Store)代表记录层面,在我们这里代表etl拉过来的基础数据,通俗地说,就是datax拉的数据表
DW是根据业务分析需求,在ods的基础上进行最基础的聚合,是所有统计分析数据的基础
DWS/Report
DWS/Report是DW的基础上进行聚合,面向某一统计主题的、对调用者而言无需再进行join的
Presto集群可以拉取hive表,到内存中计算,比hive快很多,支持Ad-hoc,没有引入Presto之前,cube的数据源是hive计算后通过datax将结果导入到mysql。
但是随着业务的发展,一个报表需求的查询维度是任意维度的,也就是通常所说的ad-hoc,这样一来,我们要为每一个查询维度生成一张hive表,然后hive表导入到mysql,这样既给数仓层的设计造成了不便,同时mysql也保存了所有维度的大量数据,mysql表只保存最终统计结果的目标也就失去了意义,引入presto后,解决了我们这些棘手的问题。
Cube是一个数据呈现平台,主要用于公司业务人员和分析部门的数据需求,所有数据从Presto中读取,目前分为PC端和移动端,经过产品上线以来的运营情况,移动端的数据需求占比越来越高。
4、数据大屏
数据大屏用来展示点我达规模、质量等服务运营指标,为公司内部和外部相关人群提供运营指标参考。数据大屏采用阿里云的datav数据可视化产品搭建,非本地部署方式,我们采购了4个显示大屏用于展示我们创建的4个datav屏幕,具体工作方式为:
a) 登录datav控制台,创建“可视化屏幕”
b) 设置屏幕的数据来源url、展示数据的格式和布局
c) 发布屏幕
d) 将配置完成的4张屏幕投放到大屏显示器中
5、hive元数据管理warden
对于bi分析人员,如果没有一个便捷的工具,在庞大的hive数据仓库中找到想要的指标是意见很困难的事情,为此,我们开发了一套hive元数据查询系统,比如,我关心订单妥投情况,我直接在全文检索搜索框中输入“妥投”,就会找到有哪些hive表包含了这个信息,截图如下:
六、OLTP层
用于内部系统的数据服务调用,使用dubbo rpc提供服务,每一个dubbo服务,后面都有一个或者多个streaming任务进行计算
数据服务简单列举几个:
POI服务:经纬度相关兴趣点服务
商家交易:商家通过app可以查看交易、账户等
骑手交易:骑手通过app查看交易、账户等
fft、fat:预测订单完成时间、预测骑手到店时间
天气服务:天气影响骑手考核和补贴
骑手轨迹:后台crm可以查看骑手的轨迹和到店、完成时点情况
历史订单查询:我们的业务库一般保留当天数据,ES提供历史订单的全文检索功能
订单压力(热力图):根据传递的经纬度,获取所覆盖的所有小方格的geohash及其订单压力情况,后台streaming算好了每个geohash的压力值,存储于redis中
七、高可靠性保证
对于大数据团队内部产品而言,OLAP应用一般是离线的或者使用者是内部用户,容许一定的延时,但OLTP服务一般处于整个OLTP系统的调用链中,需要高可靠性服务保证,我们从服务降级和监控报警处理两个层面实现服务的可靠性。
1、服务降级
比如压力服务,当我们的streaming任务挂掉或者处理缓慢怎么办,这时候我们起了一个每5分钟执行一次的备份job,当dubbo服务执行时,它首先检查streaming任务的最后写入redis key的时间,当此时间与当前时间差距超过我们设定的阈值时,就判定streaming任务异常,这时候就获取备份job的数据,极大地保证了压力服务的可靠性,示意图如下:
2、监控报警体系
a) 基础平台告警(仪表盘)
仪表盘是点我达通用的一套监控报警系统,可以设定阈值,如果某个监控的标的超过阈值,可以邮件、短信息实时告警,可以在第一时间处理。比如我们的dubbo服务,最起码的一个监控指标是执行时长,我们做了一个注解"@Monitor"和处理此注解的切面程序,如何方法只要加入了这个注解,会把这个方法的执行时长加入到监控系统中,在仪表盘监控页面中就可以看到这个方法的监控项(当然需要自己添加graph和influxdb mesurement)
对于另外个性化指标的监控,则每个服务自己去控制。
b) 大数据报警体系
大数据自身的报警体系如下图所示:
八、踩坑记录
大数据团队发展至今,遇到过很多问题,有大有小,不一而足,以下列举几个:
1、phoenix版本不匹配
查询和建表使用的phoenix版本不一致导致的数据重复的问题。phoenix表是使用4.9建的,dubbo里面用的是phoenix4.7,读取的时候发现读取到的数据有重复,后来升级dubbo服务的phoenix版本到4.9,解决了此问题
2、spark2.1.1的bug
代码示例:
val df = spark.sql(
timestamp,
user_name,
cast(user_id as bigint) user_id,
cast(timestamp as bigint) timestamp,
cast(coalesce(get_json_object(args,'$.orderId'),'0') as int) order_id,
user_name,
cast(longitude as int) lng,
cast(latitude as int) lat,
get_json_object(args,'$.status') status,
cast(get_json_object(args,'$.leaveTm') as bigint) leave_tm
from logs where event='rider_trace') t
where user_id is not null
and timestamp is not null
and order_id is not null
and status is not null
这段代码是从logs数据源中读取和解析数据,其中
一直报错,提示
java.io.CharConversionException: Invalid UTF-32 character 0x7b2265(above 10ffff)
at char #192, byte #771)
at com.fasterxml.jackson.core.io.UTF32Reader.reportInvalid(UTF32Reader.java:189)
at com.fasterxml.jackson.core.io.UTF32Reader.read(UTF32Reader.java:150)
at com.fasterxml.jackson.core.json.ReaderBasedJsonParser.loadMore(ReaderBasedJsonParser.java:153)
at com.fasterxml.jackson.core.json.ReaderBasedJsonParser._skipWSOrEnd(ReaderBasedJsonParser.java:1855)
at com.fasterxml.jackson.core.json.ReaderBasedJsonParser.nextToken(ReaderBasedJsonParser.java:571)
at org.apache.spark.sql.catalyst.expressions.GetJsonObject$$anonfun$eval$2$$anonfun$4.apply(jsonExpressions.scala:142)
提示是说某些非法字符,因为我们没有捕获异常,报错了程序也不退出,反复处理这一条脏数据,后来临时改一下代码,把
去掉,绕过了这一条数据,再把程序改回来,后来在网上搜索了一下,发现是spark2.1.1的bug,已经在spark2.2.0之后的版本修复了。
3、yarn资源设置不当引起离线dag处理失败
为了提高作业的并发量,我们减少了单个map/reduce container的内存大小,结果某个订单的大作业无足够资源,运行失败,导致当日离线报表无数据。其实也是一个权衡,过大浪费资源、并发作业少;过小则大作业无法运行,需要我们对比较耗费资源的作业做到心里有数,对大作业单独指定资源
九、集群部署结构
附录点我达大数据服务集群部署结构如图示
&h2 id=&&&前言&/h2&
&p&在上一篇文章&a href=&/blog/You-formBiao-Dan-Lai-Shuo-Shuo-Qian-H
原文地址:, 感谢原作者分享。
您可能感兴趣的代码点我达骑手和达达有什么区别?
15-10-13 &

我要回帖

更多关于 德胜集团有几个老板 的文章

 

随机推荐