据外电报道,甲骨文周四发布了2016财年第四财季财报。报告显示,甲骨文第四财季总营收为105.94亿美元,比去年同期的107.06亿美元下滑1%;净利润为28.14亿美元,比去年同期的27.58亿美元增长2%。甲骨文第四财季业绩达到华尔街分析师预期,推动其盘后股价上涨1.94%。
在截至5月31日的这一财季,甲骨文的总营收为105.94亿美元,比去年同期的107.06亿美元下滑1%,但若不计入汇率变动的影响则与去年同期持平,这一业绩表现好于分析师此前预期。汤森路透调查显示,分析师平均预期甲骨文第四财季营收为104.7亿美元。
按业务划分:
2016财年第四财季,甲骨文云计算业务营收为8.59亿美元,比去年同期增长49%,在总营收中所占比例为8%;去年同期,甲骨文云计算业务营收为5.76亿美元,在总营收中所占比例为5%。
甲骨文第四财季新软件授权营收为27.66亿美元,比去年同期下滑12%,在总营收中所占比例为26%;去年同期,甲骨文新软件授权营收为31.38亿美元,在总营收中所占比例为29%。甲骨文第四财季软件授权更新和产品支持营收为48.14亿美元,与去年同期增长3%,在总营收中所占比例为46%;去年同期,甲骨文授权更新和产品支持营收为46.86亿美元,在总营收中所占比例为44%。
甲骨文第四财季硬件产品营收为7.25亿美元,比去年同期下滑11%,在总营收中所占比例为7%;去年同期,甲骨文硬件系统产品营收为8.18亿美元,在总营收中所占比例为8%。甲骨文第四财季硬件系统支持营收为5.58亿美元,比去年同期下滑5%,在总营收中所占比例为5%;去年同期,甲骨文硬件系统支持营收为5.89亿美元,在总营收中所占比例为6%。
甲骨文第四财季服务营收为8.72亿美元,同比下滑3%,在总营收中所占比例为8%;去年同期,甲骨文服务营收为8.99亿美元,在总营收中所占比例为8%。
按地域划分:
甲骨文第四财季来自美洲的营收为58.47亿美元,低于去年同期的61.33亿美元;来自欧洲、中东和非洲的营收为31.20亿美元,高于去年同期的30.67亿美元;来自亚太地区的营收为16.27亿美元,高于去年同期的15.06亿美元。
盈利:
甲骨文第四财季净利润为28.14亿美元,比去年同期的27.58亿美元增长2%;每股收益66美分,高于去年同期的62美分。不计入一次性项目(不按照美国通用会计准则),甲骨文第四财季调整后净利润为34亿美元,调整后每股收益为81美分,高于去年同期的71美分。汤森路透调查显示,分析师平均预期甲骨文第四财季每股收益为82美分。
甲骨文第四财季运营利润为39.68亿美元,与去年同期的39.82亿美元持平。甲骨文第四财季运营利润率为37%,与去年同期持平。
在整个2016财年,甲骨文的总营收为370.47亿美元,比上年的382.26亿美元下滑3%,但若不计入汇率变动的影响则同比增长2%。全年净利润为89.01亿美元,不按照美国通用会计准则的净利润为112亿美元。全年每股收益为2.07美元,不按照美国通用会计准则的每股收益为2.61美元。全年运营利润为126亿美元,运营利润率为34%。不按照美国通用会计准则,甲骨文全年的运营利润为158亿美元,运营利润率为43%。
甲骨文今天宣布,公司董事会计划按每股15美分的价格向普通股股东支付季度现金股息,将在2016年7月27日向截至2016年7月6日收盘为止的在册股东发放。
甲骨文股价周四在纳斯达克常规交易中上涨0.20美元,报收于38.64美元,涨幅为0.52%。在随后的盘后交易中,甲骨文股价上涨0.75美元,报收于39.39美元,涨幅为1.94%。过去52周,甲骨文的最高股价为43.10美元,最低股价为33.13美元。
好文章,需要你的鼓励
研究人员正探索AI能否预测昏迷患者的医疗意愿,帮助医生做出生死决策。华盛顿大学研究员Ahmad正推进首个AI代理人试点项目,通过分析患者医疗数据预测其偏好。虽然准确率可达三分之二,但专家担心AI无法捕捉患者价值观的复杂性和动态变化。医生强调AI只能作为辅助工具,不应替代人类代理人,因为生死决策依赖具体情境且充满伦理挑战。
哥伦比亚大学研究团队开发了MathBode动态诊断工具,通过让数学题参数按正弦波变化来测试AI的动态推理能力。研究发现传统静态测试掩盖了AI的重要缺陷:几乎所有模型都表现出低通滤波特征和相位滞后现象,即在处理快速变化时会出现失真和延迟。该方法覆盖五个数学家族的测试,为AI模型选择和部署提供了新的评估维度。
麻省理工学院研究发现过度依赖AI会导致认知债务,削弱基本思维能力。研究表明交替进行无辅助思考和AI支持工作的模式能保持认知敏锐度。这种认知高强度间歇训练模仿体能训练中的HIIT模式,通过短时间高强度思考与恢复期交替进行,可以强化大脑神经回路,防止认知衰退,提升独立思考能力。
这项研究首次发现AI推理模型存在"雪球效应"问题——推理过程中的小错误会逐步放大,导致AI要么给出危险回答,要么过度拒绝正常请求。研究团队提出AdvChain方法,通过训练AI学习"错误-纠正"过程来获得自我纠错能力。实验显示该方法显著提升了AI的安全性和实用性,用1000个样本达到了传统方法15000个样本的效果,为AI安全训练开辟了新方向。