数据化驱动决策,a|b测试很靠谱!

本文导读

一屋子人拍桌子瞪眼的争辩到底哪个设计好?哪个文案好?哪个执行策略有效,还不如让真实的用户和数据来告诉你答案。A/B测试是典型的数据化驱动决策,可以用于产品设计,电商销售,网站规划,网页设计多个方面。”无测量,不市场“。一文告诉你A/B测试有多靠谱!

什么是A/B测试?

A/B测试(又被称做拆分测试或水桶测试)通过把网页或app的两个不同版本进行比较,来确定一个性能更好的方案。A/B测试其实可以看成一种实验,将一个页面的两个或多个不同的版本随机呈现给你的目标用户,通过对用户行为的统计分析来确定哪个版本更利于目标转换。如果还是不能理解的话,给大家打个比方,比如吧你想推出一款新的蛋糕——芝士慕斯,然后你不知道口感软滑细腻的还算是下点海盐,味道带有层次感会比较受顾客欢迎,这种情况下大规模推出新品有风险,你就可以做两大块出来给顾客试吃,观察他们在相同环境下吃蛋糕的反应和收集口感评价,最后有调查有真相,更受欢迎的哪一款必须是首选。去实践实践总比想破脑壳子,或直接拍扳决定更有底气些。

A/B测试一般可以用在你的网页或者app的迭代问题上,直接抛出改变前后的不同版本,收集受影响的数据变化情况。这样的测试也让网页优化不再局限于猜测,拍脑门决策!而是通过数据化驱动决策,让商务洽谈中常听到的“我们认为”直接变成“据我们所知(我们调查了解到)”,是不是更有说服力了呢!通过变化前后效果监测确保你所做的调整获得更好的收效。

如何进行A/B测试?

在A/B测试中,首先要修改调整网页或者应用程序的显示界面,创建相同页面的另一个版本。这个调整修改视具体情况而定,有可能是单一的某个标题或按钮,也可能是整个页面的重新设计。接下来就是把不同的版本抛给你的用户了。控制流量!让一半的用户看到你的原始版本(称之为控制组/对照组),让另一半的用户看到的是调整后的版本(称之为变化组/试验组)。

控制组和变化组不同的访问者行为将会被监测并通过数据统计分析工具进行收集分析最后集中到一个数据分析仪表板中。之后你就可以根据该实验的结果看到调整所带来的效果是正是负?还是完全没有影响。对比A/B两组的用户行为反馈情况,以此来更好的辅助你的决策。

为什么要开展A/B测试?

A/B测试让个人,团队甚至是企业通过收集有关的数据结果,更有针对性,更有效的调整优化用户体验。让他们通过假说的构建更好的了解他们实施的方案中到底是那些确定因素在影响着用户行为。另一方面,他们针对给定目标提出的优化方案,通过A/B测试也许会发现:oh,错了!

A/B测试提升了确定性。这就更好解释了,通过A/B测试,每次只有效果好了才会上线,也就意味着每次优化都能比以前更好,无论是产品经理的自信心、用户的体验还是投资人那里,咱都可以理直气壮地说,我的每次更新,都比以前更好了。。。

A/B测试不仅可以用在单一解决方案的问题以及意见分歧的情况,它还能被持续用在既定方案的不断调整优化上,通过测试实践提高实现单一目标(随时间推进不断提高转化率)

举个栗子,B2B技术公司可能想通过优化销售活动着陆页来带动提高他们的销售额。为了实现这个目标,公司的技术团队可能对着陆页的大标题,主视觉,表单,行为呼唤(CTA),以及页面的整体布局设计进行A/B测试实验。

及时的对所做的调整进行测试能帮助他们更准确的知道哪些调整对他们的用户行为产生影响。之后,他们可以逐渐将测试中的较优局部调整进行整合,以期超越旧版本,实现基于用户行为偏好的当前最优调整方案。

这样直接把对照方案抛给用户,能更好的达到预期的优化效果以及让营销活动的关键步骤更有效。
测试广告文案,营销人员能够了解到底哪个版本可以吸引更多的点击,测试着陆页,能够知道怎样的布局设计可以获得更高的转化率。如果每一个步骤每一个元素都被优化以尽可能吸引新用户,那么整体的营销活动支出可以节省不少。

A/B测试还被产品开发设计人员用来测试产品新功能以及设计调整对用户行为的影响。有确定的目标或者一个明确的假设,上线产品,用户参与度,调试情况等都可以通过A/B测试来监测。

A/B测试流程

下面👇说说A/B测试的一个框架,告诉你如何开展:

  • 数据收集:首先是深入去了解挖掘你需要从哪里去展开优化,数据的收集分析帮你找出流量大的地方来运行测试你的网页和应用程序。这样可以帮助你更快速的收集数据。找到界面中那些导致低转化率高流失率的点,以备优化
  • 明确目标:转化目标是用来衡量你的调整版是否优于原有版本的一个重要指标。转化目标其实比较多样化,有可能是某个按钮的点击率,产品购买链接的跳转率,或者是邮件注册率等等。
  • 提出假设:当你有了明确的目标后就可以开始着手进行A/B测试,提出为什么你认为调整改变版本会比原版本好的系列假设想法。再根据预期效果和实施难易程度来考虑哪一个优先展开。
  • 构建调整:使用A/B测试软件(例如*Optimizely*),按照提出的假设对你的网站或者移动APP界面的一些元素进行调整。可能是改变按钮的颜色,换一下页面交互元素的位置,隐藏导航栏,或者是添加一些完全自定义的元素。很多A/B测试工具都有视觉编辑器,调整起来很简单。确保你的测试质量以保证测试按预期展开。
  • 测试运行:好了结束调整后就开始等待你的用户参与进来。在这一环节,你的访问者会随机分配到你的网页或app的不同版本(控制组和变化组)。在这个过程中他们的交互行为会被直接监测,收集以便用于后面不同版本运行效果的分析。
  • 分析结果:实验到这里也就完成了,下面就得开始分析一下结果。A/B测试软件会通过收集的数据分析告诉你两个版本运行过程中用户行为的差异,以及是否具有统计学的差异显著性。

如果结果显示你的优化是有效的,那恭喜你,你可以将实验得出的经验用在你其他的网页上,而且可以尝试产品的持续迭代,优化方案获取更好的运行效果;如果结果显示:无效甚至更糟糕,那么也不要沮丧,就当赞经验,分析提出新假设在去实验一下。

无论结果如何,吸取经验教训,为后面测试优化你的网页以及应用程序的不断迭代攒姿势!

A/B测试&SEO搜索引擎优化

谷歌允许甚至是鼓励A/B测试。而且明确指出实行A/B测试或多元测试不会对你的网页搜索排名造成潜在风险。但是如果滥用A/B测试工具比如说一些障眼法肯定是会对你的网站排名造成危害。谷歌详细阐明了一些做法来确保这些情况不会发生

  • 不允许伪装:伪装指的是通过搜索引擎显示不同于普通访客所能看到的内容。这样的做法会让你的网站被降级或移除搜索结果。为了防止这种做法,不允许将访客细分用在基于用户代理和IP地址的Googlebot上,以显示差异化内容。
  • 使用rel="canonical":如果你想运行多个URL的分割测试,你得使用rel="canonical"的属性将调整版本链到原始版本的页面。这样可以避免Googlebot对同个页面的多个版本产生混淆。
  • 使用302重新调配定向代替301s:如果你运行测试将原始URL重新调配到变化组的URL,使用的是302暂时调配或301永久调配。但在测试中搜索引起例如谷歌会采用的重调是暂时性的。他们会保持原有的网址搜索而不是测试的URL。
  • 根据需要运行实验:服务的用户量影响运行时间。而且当你的测试结束会删去所有测试变化的网址,以避免不必要的长时间运行

A/B测试思路

下面是一些A/B测试的思路,怎样进行测试最好是因行业而异不同行业有不同的做法,所以👇垂直分解一些A/B测试的思路

媒介公司:

需要扩大读者群,增加用户在其网页上的停留时间,并且通过社会化分享提高其文章的曝光度,为了实现这些目标他们可能会对以下的内容进行测试:

  • 邮件注册情感动员
  • 推荐内容
  • 社交分享按钮

旅行公司:

可能需要增加在他们网站或app上成功完成预定率,以及希望增加配套产品采购。为了提高这些指标,他们会测试:

  • 首页搜索情况
  • 搜索结果页面
  • 配套产品介绍

电子商务公司:

需要增加完全交易量,平均订单价值,增加节日销售量,所有他们会测试:

  • 首页促销
  • 导航栏
  • 结算组建

科技公司:

需要增加销售团队的高质引导,免费用户试用数量。西永目标消费者:

  • 引导窗体组件
  • 免费试用申请流程
  • 首页信息和行为呼唤(CTA)

产品层面:

A/B测试在产品层面的应用主要是通过“灰度发布”来实现的。
就目前移动端的产品来说,iOS的应用商店审核期是个大大大坑,任何BUG打补丁还得再来一遍,也就意味着补丁的审核期内用户带着BUG使用,这个太致命了,用户的获取成本高的吓人,因为这个流失太不值得了,基于A/B测试的灰度发布更重要的不是优化,而是保护性发布,先通过小流量的实际用户测试,有BUG或者新版本体验不好,可以立即回滚到老版本,简单有效。(来源:知乎王冉)

A/B测试案例:

Airbnb利用灰度发布和 A/B testing;重要页面的修改和流程上的调优,通过灰度发布到 1%或者 5%的用户,看其实际对用户的数据影响(访问时间增加?留存提高?下单率提高等),决定此修改到底是 100%发布还是被砍掉。


编译原文链接: https://www.optimizely.com/ab-testing/

Comments
Write a Comment
  • yy reply

    文章不错,学习~