谷歌拍摄了从 XXS 到 4XL 尺寸、不同肤色、体型、种族和发型的人物照片,以创建基于扩散的神经网络。

扩散过程逐渐向图像添加额外的像素或“噪点”,直到它变得无法识别,然后消除噪点,直到重建原始图像。与依赖文本输入的传统扩散方法不同,谷歌的方法将两个图像配对:服装与人。

“每张图像都被发送到自己的神经网络(U 型网络),并在称为‘交叉注意’的过程中相互共享信息,以生成输出:穿着服装的人的逼真图像,”Ira Kemelmacher 说道-Shlizerman,Google 高级研究科学家,购物,在博客文章中。

谷歌的购物图谱拥有约 400 亿个产品列表,然后使用数百万张不同姿势的人不同服装的随机图像来训练人工智能模型。

谷歌人工智能驱动的虚拟试穿模型“可以只拍摄一张衣服图像,并准确地反映它如何在不同姿势的不同真实模特身上悬垂、折叠、紧贴、拉伸以及形成皱纹和阴影,”谷歌公司的 Lilian Rincon 说。购物产品高级总监在另一篇博客文章中表示。

目前情况,顾客可以通过 Google 购物搜索中的“试穿”标志购买 H&M、Loft、Everlane 和 Anthropologie 的精心挑选服装。

Kemelmacher-Shlizerman 先生看到了虚拟试穿技术的局限性,例如几何变形,可以剪切和粘贴,然后使服装图像变形以适应轮廓。“衣服并不能真正适应身体,而且它们存在视觉缺陷,例如错位的褶皱,使衣服看起来畸形和不自然,”他说。

沃尔玛去年推出了一项技术,使在线购物者能够通过选定的头像以及上传的自己照片来查看他们选择的服装的外观。沃尔玛美国公司服装和自有品牌执行副总裁丹尼斯·因坎德拉 (Denise Incandela)当时表示:“我们相信,距离顾客最近的最大商店就是顾客口袋里的商店。”

文章翻译自:Retailwire ;原文链接:https://retailwire.com/discussion/is-generative-ai-a-game-changer-for-virtual-apparel-try-on/

发表评论