2018年04月6日网站服务器迁移完成……

myspace案例

互联网 苏 demo 1561℃ 0评论

从技术架构体系发展过程来看,目前颇具影响力的大型Web2.0 网站的技术平台体系大致可分为两类:第一类以MySpace 为代表,其技术平台受业务驱动经过多次变迁、演进,最终在网站成熟期才趋于稳定;第二类的典型是Mixi,这类网站的技术平台因为具有良好的横向扩展性和 伸缩性,开始运营即进入相对稳定状态,业务发展需要改变或改善的往往只是应用和服务。

与MySpace 同一阵营的典型站点还有类Web2.0 网站ebay(ebay 为全球知名C2C 电子商务网站,之所以在此称ebay 为类Web2.0 网站,是因为其与大型Web2.0 网站一样具有庞大在线与高度交互特征,用户的个性化数据同样越来越多)、以及发起于校园的项目LiveJournal 等。这些站点的技术架构体系经历了类似自然进化式的演进与蜕变。然而,促使技术团队大幅度修改基础技术平台的大部分原因却并非是业务模式的改善与提升,而 是随着网站发展而暴增的用户数据与访问负载。这里以MySpace 为例来说明,最早的MySpace 是用perl 编写的,后来转到ColdFusion,到2005 年又因为性能问题开始大规模迁移到ASP.NET,技术架构体系也前后经历了五代。MySpace 技术团队一次一次的重构站点软件、数据库和存储系统,进行应用与大量复杂数据的平台迁徙。


MySpace 技术副总裁Jim Benedetto
这种工作永无停息,“就像粉刷金门大桥,工作完成之时,就是重新来过之日。”(译者注:意指工人从桥头开始粉刷,当到达桥尾时,桥头涂料已经剥落,必须重 新开始)MySpace 技术副总裁Jim Benedetto 如此说。当然,在技术团队卓有成效的努力下,MySpace 的技术架构平台经过多次痛苦的蜕变以后趋于了稳定。如果没有对系统架构的历次修改与升级,MySpace 根本不可能走到今天,毕竟对于MySpace 的爆炸性成长速度,其团队内部或许也始料未及。

MySpace 们技术架构体系的每次变迁与蜕变对创业团队来说都是阵痛,但是为了的适应成长,这种痛苦的工作必须进行,并且为了应对竞争,工作成果也须更具成效。 MySpace上线的2003 年,其最初的模仿对象Friendster 因为技术平台性能无法满足日益增长的用户需求而遭遇麻烦时期。


Friendster 副总裁Kent Lindstrom
在财富杂志最近的一次采访中,Friendster副总裁Kent Lindstrom 承认他们的服务出现问题选错了时候。那时,Friendster 传输一个页面需要20 到30 秒,而MySpace只需2 到3 秒。结果,Friendster 用户开始转投MySpace,他们认为后者更为可靠。”在与相同业务模式对手的竞争中,MySpace 技术团队更积极更卓有成效的工作起了关键作用。作为业务模式方面的初创者和榜样,Friendster 却因为技术平台体系的问题而在竞争中败北。

MySpace 在技术平台上无疑花费了创业团队大把的力气和资源,当然这最终也支持了它的成长。然而与2004 年上线的Facebook 和Mixi 等网站相比,不得不说其技术决策最初的方向性错误导致其走了更多弯路。幸好MySpace 的最初投资方颇具资金实力,并非从校园或者车库里开始迈出第一步的缺乏资金后盾的初创企业,(2003 年美国国会通过的《反垃圾邮件法》严重打击了公司的电子邮件营销业务,MySpace 被创建是为了寻找新的发展方向)否则这种技术平台的多次迁徙、无休止的系统架构重构很可能占用团队过多的精力和资源而最终导致项目失败。

打赏

转载请注明:苏demo的别样人生 » myspace案例

   如果本篇文章对您有帮助,欢迎向博主进行赞助,赞助时请写上您的用户名。
支付宝直接捐助帐号oracle_lee@qq.com 感谢支持!
喜欢 (0)or分享 (0)
发表我的评论
取消评论
表情