(CVPR-2023)通过有效的时空特征融合进行多模态步态识别

news/2024/4/14 8:53:53

通过有效的时空特征融合进行多模态步态识别

paper题目:Multi-modal Gait Recognition via Effective Spatial-Temporal Feature Fusion

paper是北航发表在CVPR 2023的工作

paper地址

Abstract

步态识别是一种生物识别技术,通过步行模式识别人。基于剪影的方法和基于骨架的方法是两种最流行的方法。但是剪影数据容易受到衣服遮挡的影响,骨架数据缺乏体型信息。为了获得更稳健、更全面的步态识别表示,我们提出了一种基于 transformer 的步态识别框架,称为 MMGaitFormer,它有效地融合和聚合了来自骨架和轮廓的时空信息。具体来说,空间融合模块(SFM)和时间融合模块(TFM)分别被提出用于有效的空间级和时间级特征融合。 SFM进行细粒度的身体部位空间融合,通过attention机制引导轮廓各部位、骨架各关节对齐。 TFM 通过循环位置嵌入 (CPE) 执行时间建模,并融合两种模式的时间信息。实验表明,我们的 MMGaitFormer 在流行的步态数据集上实现了最先进的性能。对于 CASIAB 中最具挑战性的“CL”(即穿着不同衣服行走)条件,我们的方法达到了 94.8% 的 rank-1 准确率,大大优于最先进的单模态方法。

1. Introduction

步态识别是一种通过步行模式识别人的生物识别技术,是远距离识别系统中最有前途的基于视频的生物识别技术之一。然而,执行可靠的步态识别仍然具有挑战性,因为它的性能受到许多复杂因素的严重影响,包括服装、携带条件、交叉视图等。为了缓解这些问题,已经提出了各种方法。基于外观和基于模型的方法是基于视频的步态识别的两种最流行的方法。基于外观(即基于轮廓)的方法 [5、9、14、19、27] 依赖于从原始视频帧中分割出来的二进制人体轮廓图像,以消除外部因素的影响。他们利用卷积神经网络 (CNN) 提取时空特征并实现了最先进的性能。基于模型的方法 [2,16,17,23] 考虑身体的基本物理结构,并以更易于理解的模型表达步态。最近的基于模型的方法是基于骨架的,其中它们用通过姿势估计模型从视频中获得的骨架来表示步态。凭借清晰而稳健的骨架表示,与基于外观的方法相比,最近的基于骨架的方法甚至可以显示出有竞争力的结果。

尽管基于剪影和基于骨架的方法都有其优点,但我们认为步态信息的两种输入表示的不完整性限制了这些方法的进一步改进。如图1(a)所示,虽然轮廓保留了大部分身体形状信息,但当身体区域重叠时会出现自遮蔽问题。此外,当服装条件发生变化时,如图1(b)所示,服装遮蔽会显着改变外部身体形状。然而,骨架仅保留内部身体结构信息,有效解决了服装遮挡和自遮挡问题,但完全忽略了可区分的身体形状信息,导致性能不佳。因此,我们可以观察到轮廓保留了外部身体形状信息并省略了一些身体结构线索,而骨骼保留了内部身体结构信息。两种数据模态互为补充,它们的结合有望更全面地表征步态。

图1

图 1. CASIA-B 步态数据集中受试者在正常行走 (a) 和穿着不同衣服行走 (b) 的不同时间步长的不同步态表示的比较。每行从上到下分别描绘了与剪影图像相同的帧,以及 2D 骨架姿势,即骨架和剪影的组合。结合剪影和骨骼的互补优势,有望成为更全面的步态表征。

受上述观察的启发,为了获得用于识别的稳健和全面的步态表示,我们提出了一种基于 transformer 的步态识别框架,称为 MMGaitFormer,它有效地融合和聚合了来自骨架和轮廓的时空信息。准确地说,拟议的框架由三个阶段的四个主要模块组成。首先,分别通过分割和姿态估计方法从原始RGB视频中提取剪影序列和骨架序列。之后,我们将轮廓和骨架输入到独立的编码模块中,为每个模态提取独特的时空特征图。最后,我们分别提出了用于空间和时间特征融合的空间融合模块(SFM)和时间融合模块(TFM)。作为基于视频的识别任务,如何有效地从时空信息中提取具有鉴别力的步态特征是最关键的问题。在这项工作中,我们考虑了空间级别的细粒度融合和时间级别的精细对齐融合。在 SFM 中,我们设计了一个共同注意模块来实现轮廓和骨架之间的交互。具体来说,我们构建了称为细粒度身体部位融合 (FBPF) 的策略,以根据骨骼中的关节与轮廓中相应部位之间的先验位置关系,指导 SFM 进行细粒度特征融合学习。在 TFM 中,我们引入了用于精细对齐时间建模的嵌入建模操作,我们在其中设计了周期位置嵌入 (CPE) 以有效捕获步态周期特征并更好地为步态序列的时间信息建模。

所提出方法的主要贡献总结如下:(1)我们提出了一种有效且新颖的多模态步态识别框架,称为 MMGaitFormer,它利用由轮廓和骨架构建的更全面的步态表示,以实现更好的识别。 (2) 提出了一种基于共同注意的空间融合模块,利用每个骨架关节和每个轮廓部分的先验位置关系,对空间步态特征进行细粒度身体部位融合 (FBPF)。(3) 我们提出了一种用于时间级特征融合的新型时间融合模块,其中我们设计了循环位置嵌入 (CPE) 来模拟任意长度步态序列的时间关系。实验表明,我们的 MMGaitFormer 在流行的步态数据集上实现了最先进的性能。对于 CASIAB [26] 中最具挑战性的条件(即穿着不同的衣服行走),我们的方法达到了 94.8% 的 rank-1 准确率,大大优于最先进的单模态方法( +11.2% 准确度提升)。

2. Related work

基于外观的方法依赖于从原始图像中提取的二进制人体轮廓图像。大多数最近的方法直接将步态视为一系列轮廓。这些方法 [5、6、9、18、20] 遵循类似的管道,即在帧级别使用设计良好的网络提取空间特征,然后使用时空聚合模块获得步态表示。例如,GaitPart [9] 设计了一个微动捕捉模块(MCM)模块来模拟局部微动特征。 GaitGL [20] 提出了一个 3D CNN 网络来同时聚合局部时空信息。 GaitTransformer [6] 提出了用于步态时间建模的多时间尺度转换器 (MTST)。尽管基于剪影的方法取得了最先进的性能,但剪影数据不可避免地会遇到服装遮挡和自遮挡的问题,限制了其进一步改进。

基于模型的方法考虑身体的基本物理结构,并在更易于理解的模型中表达步态 [2、16、17]。最近基于模型的方法通常将骨架作为原始输入数据,从带有姿势估计模型的原始视频中提取。 PoseGait [17] 利用人类先验知识设计姿势特征,并使用 CNN 提取特征表示以进行识别。 GaitGraph [23] 基于图卷积网络(GCN)从人体二维关节中提取步态信息,并取得了有竞争力的结果。虽然基于骨架的方法对视图和外观变化具有鲁棒性,但骨架数据包含的身体形状信息少于剪影图像。

集成深度、多传感器和视频数据的多模态步态识别 [4、7、13] 方法在早期研究中显示出识别性能的改进。然而,完全依赖视频数据的同质多模态方法尚未得到充分探索,现有方法 [15, 21, 25] 仍然存在关键问题:(1)简单地连接两种模态的最终全局特征不能有效捕获细粒度的空间信息。 (2) 两种模态序列的时间信息没有得到充分利用,如何有效融合它们的时间特征仍然是一个悬而未决的问题。受 Transformer [24] 在多模式学习中取得的显着成功的启发,我们提出了一种基于 Transformer 的方法,该方法利用两种互补的数据模式,即轮廓和骨架,进行全面的步态识别。

3. Method

在本节中,我们将描述 MMGaitFormer 的技术细节。在第 3.1 节中,我们概述了我们的方法。在第 3.2 节中,我们讨论了 SiEM 和 SkEM 的设计动机。在第 3.3 节中,我们介绍了我们提出的空间融合模块,介绍如何通过细粒度身体部位融合 (FBPF) 来整合骨架信息和轮廓信息。在第 3.4 节中,我们详细阐述了我们提出的时间融合模块,介绍如何使用循环位置嵌入 (CPE) 来建模和融合两种模态序列的时间信息。

3.1. Pipeline


图2

图 2. 我们的 MMGaitFormer 的管道。在预处理阶段,分别通过分割方法和姿态估计方法从原始RGB视频中提取轮廓序列和骨架序列。在编码阶段,我们将输入的轮廓和骨架分别输入到轮廓编码模块 (SiEM) 和骨架编码模块 (SkEM) 中,以学习时空特征图。在融合阶段,提出了空间融合模块(SFM)和时间融合模块(TFM),分别用于有效的细粒度空间和精细对齐的时间特征融合。 ATT表示cross-attention block,两个ATT形成一个co-attention结构进行特征融合。 TFM 中的嵌入建模 (EM) 用于时间建模。单独的全连接层 (SFC) 用于编码和融合阶段的特征映射。

为了有效地获取、处理和融合两种模态的步态表示,我们提出了一个有效且新颖的框架,称为 MMGaitFormer,它有效地融合了两种模态的互补时空信息,同时保留了每种模态的独特辨别特征。所提出的多模态步态识别框架的流程如图 2 所示。

在预处理阶段,将从原始步态视频中离线获得两种类型的步态表示。一种是通过分割方法提取的剪影序列 S ∈ R C 1 s × T 1 s × H 1 × W 1 S \in \mathbb{R}^{C_1^s \times T_1^s \times H_1 \times W_1} SRC1s×T1s×H1×W1,其中 C 1 C_1 C1为通道数, T 1 s T_1^s T1s为剪影序列的长度, ( H 1 , W 1 ) \left(H_1, W_1\right) (H1,W1)为图像每个帧的大小。另一个输入是由姿势估计模型 [10, 22] 提取的骨架序列。骨架序列在结构上可以用 A ∈ R N 1 × N 1 A \in \mathbb{R}^{N_1 \times N_1} ARN1×N1描述,在特征上可以用 K ∈ R C 1 k × T 1 k × N 1 K \in \mathbb{R}^{C_1^k \times T_1^k \times N_1} KRC1k×T1k×N1描述,其中 C 1 k C_1^k C1k是通道数, T 1 k T_1^k T1k是序列的长度 N 1 N_1 N1为关节数。

在编码阶段,给定轮廓 S S S和骨架 K K K的序列,然后从轮廓编码模块(SiEM)中提取特征映射 F s ∈ R C 2 s × T 2 s × H 2 F_s \in \mathbb{R}^{C_2^s \times T_2^s \times H_2} FsRC2s×T2s×H2 F k ∈ R C 2 k × T 2 k × N 2 F_k \in \mathbb{R}^{C_2^k \times T_2^k \times N_2} FkRC2k×T2k×N2和骨架编码模块(SkEM),分别为了学习每个步态表示的独特时空信息.

在融合阶段,这些特征图被送入两个分支:(1)空间融合模块使用共同注意结构以细粒度融合每个轮廓部分和每个骨架节点,并获得空间特征表示 Y s Y_s Ys。 (2) Temporal Fusion Module通过Embedding Modeling对时态关系进行建模,融合每个模态的长时特征信息用于时态特征表示 Y t Y_t Yt。我们连接 Y s Y_s Ys Y t Y_t Yt作为步态序列的最终特征表示 Y Y Y

最后,我们选择一个组合损失来训练所提出的网络,包括融合损失 L fuse  L_{\text {fuse }} Lfuse 、轮廓损失 L sil  L_{\text {sil }} Lsil 和骨架损失 L ske  L_{\text {ske }} Lske 。总损失定义为 L = L fuse  + L sil  + L ske  L=L_{\text {fuse }}+L_{\text {sil }}+L_{\text {ske }} L=Lfuse +Lsil +Lske 。我们使用单独的 Batch All 三元组损失 [12] 作为损失函数。

3.2. Silhouette and Skeleton Encoding Module


动机。两种模态表示的数据结构差异太大,很难在数据层面直接融合。因此,我们设计了独立的编码模块来捕获每个模态的独特判别信息,并增强后续融合的时空特征表示。为了加快模型收敛速度,我们专门进行了剪影损失 L s i l L_{s i l} Lsil和骨架损失 L s k e L_{s k e} Lske来分别监督每个模态特征的学习。

操作。受 GaitGL [19] 和 GaitGraph [23] 的启发,我们设计了 SiEM 网络和 SkEM 网络。 SiEM 网络由 3D CNN 块 [20]、最大池化层和微动捕捉模块 (MCM) [9] 组成。对于 SkEM,我们引入了图卷积网络 (GCN) 以从骨架图序列中提取时空步态特征。最后一个block的输出通道设置为128,与SiEM的输出相同,方便后续的融合处理。我们框架中的 SiEM 和 SkEM 也可以替换为任何步态识别网络。 SiEM 和 SkEM 的更复杂架构可能会带来更可观的性能提升,但这不是所提出方法的优先考虑。因此,SiEM 和 SkEM 可以被视为我们方法的基线。

3.3. Spatial Fusion Module


动机。在这项工作的同时,个别方法 [21、25] 也开始通过融合多种步态模式来探索更强大的特征。然而,如图3(a)所示,这些方法具有相对简单的融合方式,并通过级联操作专注于全局特征级别的融合[25]。这种融合操作缺乏可解释性和灵活性,也缺乏对人体先验空间信息的利用。此外,这些方法通常依赖于每个模态的预训练模型,这使得它们更像是集成模型而不是多模态模型。为了解决这些问题,我们提出了一种基于共同注意的融合模块,如图 5(a)所示,它采用注意机制(即 Fine-grained Body Parts Fusion),如图3(b)所示。基于注意力的学习结构也使该方法更加灵活,允许端到端训练而不依赖于每个模态的预训练模型。

精细的身体部位融合。如图4(a)所示,人体区域可分为头部、躯干和腿部三部分,人体步态的不同身体部位在行走过程中具有不同的形状和运动模式。受上述观察的启发,我们认为空间特征融合应该是细粒度的,并提出了一种简单但有效的策略,以利用人类先验知识实现更全面的细粒度空间特征融合。我们通过构造注意力掩码 m s S m_s^S msS m k S m_k^S mkS来限制轮廓和骨架特征以仅计算与相应身体部位的交叉注意力,如图 4(b)所示。一方面,各个身体部位之间的融合有效地利用了人体的先验知识,因此更具可解释性。另一方面,受限注意力计算可以将计算复杂度降低一半,有效降低过拟合的风险。

在这项工作中,我们在轮廓和骨架之间建立了一个简单的映射关系,以构建如图 4 (b) 所示的预定义注意掩码。特征嵌入 f s S f_s^S fsS的上四分之一 (0-1/4)、中半部分 (1/4-3/4) 和下四分之一 (3/41) 代表头部、躯干和腿部的轮廓特征分别。同理,骨骼节点向量也同样分为头部( f k S f_k^S fkS中鼻子、眼睛、耳朵的节点特征)、躯干(肩、肘、腕、臀)、腿(膝、踝)三个区域). m s S m_s^S msS m k S m_k^S mkS互为转置。

空间共同注意聚合。 co-attention fusion 模块使轮廓和骨骼之间的交互成为可能,它在轮廓部分和骨骼关节之间建立各种空间关系,以利用两种数据模式的互补优势,为识别提供更稳健和全面的步态特征表示。相较于单独的crossattention modules,co-attention structure可以更好的整合skeleton和silhouette的互补优势。并且通过为受限的注意力计算构造注意力掩码,在提高可解释性的同时,降低了基于 Transforbased 方法的过度拟合风险。

操作。如图 5 (a) 所示,共同注意模块包括交错的多头交叉注意块。在这项工作中,我们的交叉注意块遵循 ViT 的 [8] 多头注意结构。对于特征映射 F s ∈ R C 2 s × T 2 s × H 2 F_s \in \mathbb{R}^{C_2^s \times T_2^s \times H_2} FsRC2s×T2s×H2 F k ∈ R C 2 k × T 2 k × N 2 F_k \in \mathbb{R}^{C_2^k \times T_2^k \times N_2} FkRC2k×T2k×N2,在时间轴上使用最大池化得到空间特征嵌入 f s S ∈ R C 3 × H 2 f_s^S \in \mathbb{R}^{C_3 \times H_2} fsSRC3×H2 f k S ∈ R C 3 × N 2 f_k^S \in \mathbb{R}^{C_3 \times N_2} fkSRC3×N2。然后将这些特征嵌入输入到注意结构中以进行互补信息融合,随后是前馈网络 (FFN) 层以生成空间特征表示 Y s Y_s Ys

3.4. Temporal Fusion Module


动机。作为基于视频的识别任务,步态帧之间的时间关系包含对识别至关重要的独特生物信息。为了更好地利用两种模态的步态序列的时间信息,我们提出了一种基于注意力的时间融合模块 (TFM) 来聚合两种模态的时间特征。此外,如图 4(a) 所示,步态是一个周期性的对称过程。因此,我们提出了循环位置嵌入来更好地建模和对齐两个模态序列的时间信息。

循环位置嵌入。注意机制无法区分输入特征序列的位置信息。如图6所示,对于现有的视觉转换器方法[8],使用与输入序列相同长度的位置嵌入来指示输入标记的顺序。然而,这种方法限制了 transformer 只能从固定长度的步态序列中提取时空信息。针对这个缺点,我们提出了Cycle Position Embedding (CPE),表示为 P s = { p i ∣ i = 1 , … , s } P_s=\left\{p_i \mid i=1, \ldots, s\right\} Ps={pii=1,,s} s s s是位置嵌入的循环大小。我们重复位置嵌入,直到它与特征嵌入的长度相同,以处理任何大小的序列。一方面,位置嵌入的重复过程模拟了步态周期过程,这是一种更有效的顺序建模步态周期的方法。并且可以根据步态周期中的帧数可解释地设置周期 s s s的大小。另一方面,通过限制可学习参数的数量进一步降低了过度拟合的风险,有助于所提出的基于 Transformer 的模型更好地收敛。

此外,两个序列中的相同帧都使用相同的位置嵌入来执行,以进行精细对齐的时间建模。我们为每个模态添加了一系列特征嵌入,其中包含可学习的类嵌入(表示为 C L S s T C L S_s^T CLSsT C L S k T C L S_k^T CLSkT),其在注意块输出处的状态用作相应模态的时间特征表示。

时间共同注意聚合。 TFM 的网络结构如图 5(b)所示。与 SFM 类似,我们还设计了一个共同注意模块来融合和聚合两个模态的时间信息。具体来说,两种模态的时间特征差异很大,因此我们使用两个独立的 FFN 层来分别映射两种模态的独特时间特征。

操作 对于特征映射 F s ∈ R C 2 s × T 2 s × H 2 F_s \in \mathbb{R}^{C_2^s \times T_2^s \times H_2} FsRC2s×T2s×H2 F k ∈ R C 2 k × T 2 k × N 2 F_k \in \mathbb{R}^{C_2^k \times T_2^k \times N_2} FkRC2k×T2k×N2,在空间轴上使用均值池化得到时间特征嵌入 f s T ∈ R C 3 × T 2 s f_s^T \in \mathbb{R}^{C_3 \times T_2^s} fsTRC3×T2s f k T ∈ R C 3 × T 2 k f_k^T \in \mathbb{R}^{C_3 \times T_2^k} fkTRC3×T2k。嵌入建模操作应用于这些特征嵌入以进行时间建模。然后将这些特征嵌入输入到共同注意结构中进行特征融合和增强,并获得时间融合特征表示 Y t Y_t Yt


http://www.ppmy.cn/news/228581.html

相关文章

中小手机厂商眼红小米模式抢进互联网手机 - 我爱研发网 52RD.com - RD大本营

中小手机厂商眼红小米模式抢进互联网手机 - 我爱研发网 52RD.com - R&D大本营 中小手机厂商眼红小米模式抢进互联网手机 - 我爱研发网 52RD.com - R&D大本营 中小手机厂商眼红小米模式抢进互联网手机 52RD.com 2012年9月10日 21世纪经济报道            …

苹果称只保证直营店iPad补差价 近1周投诉急增

3月3日,苹果发布iPad2,并表示此前两周内购买的iPad一代可退1100元差价。记者昨日了解到,部分从经销商处购得iPad的消费者并不能享受此“待遇”。苹果中国公司公关负责人昨日表示,苹果只能保证消费者在苹果商店购买能享受到补偿&am…

巧用导购销售技巧

很 多导购,顾客进门第一句话他就说错了!一般的导购看到顾客第一句话就是:“你好,欢迎光临!”,其实这句话说错了!第二句话说错的人更多了!“您想要点什么?” 错 “有什么…

C++之——类和对象

一、类的定义: 如下代码: class people {char* name;char* sex;int age; };class就是类的关键字。people就是这个类的名字,{}为类的主体,里面有成员,变量叫做成员变量,函数叫做成员函数。 c语言中的struct也可以作为…

听见丨今年全球全功能智能手表出货3160万部,2021年翻番 华为与百度达成全面战略合作,AI结合手机或将成未来趋势

苹果拟整合iPhone、iPad和Mac应用,打造统一体验 虽然很多应用只能在苹果的封闭系统中使用,但在iPhone、iPad和Mac之间又存在着协同差异。为了给用户带来更好的使用体验,苹果打算通过易于操作的应用和集中的App Store来整合并统一三大平台。 据…

苹果新款iPad今开售:内地只有WiFi版 回收价2300

本月7号是苹果最新平板电脑iPad mini、iPad 4正式登陆中国内地市场的日子。而此次作为苹果产品中国市场首发渠道之一的家电卖场也纷纷推出以旧换新的活动来招揽生意。 内地上市只有WiFi版 7.9英寸屏幕,更加轻薄,可以单手掌控的iPad mini,此次…

京东、天猫、小米:618电商血战手机

今年6月,电商大战在即,手机品类正暗潮汹涌,将会是各大电商血战据点。 有消息称,618当天,天猫电器城备货100万部手机促销——这一数字是国内手机全部渠道的出货量。 电商手机品类血战的重要背景是:一方面是京…

苹果的破局几招:修漏洞、降价、官方认证翻新机……...

过去的2018年,苹果失去了很多。因为手机价格问题,销量出现意外;因为安全漏洞问题,失去了部分用户的信任;因为专利问题,失去了部分市场;也是因为这一系列问题,甚至痛失了市值第一的宝…

无线摄像头接有线如何改协议_谷歌牵头无线充电,能否让国产手机回心转意

作者 / 速途网 乔志斌 北京时间20日凌晨,谷歌正式发布了Android 11 Developer Preview1。作为第一个开发者预览版加入了众多新功能,例如滚动长截屏、增加刷新率选项等,其中,电池共享(Battery Share)或将为即将发布的 Pixel 5新增反…

苹果慌了,从死不承认到主动降价,库克只用了4个月

当苹果丧失定价权时,要么损失利润率,要么失去市场份额,或者两者都会失去。 喜大普奔,苹果又要降价了。 刚刚,苹果发布了2019年第一财季财报。意想不到的是,在总营收超预期的情况下,这家智能设…

java debug调试工具

文章目录 java debug调试工具debugdebug运行断点如何运行 具体使用step intostep into Force step intoresume programstopview breakpointsmute breakpointsstep ourt Shift消除debug java debug调试工具 debug 就是调试工具,用来查看代码在运行工程数据的变化。 …

es插入失败

问题:因为分片数量太多导致es写入数据失败,如图: 这里的意思是分片数量达到阈值,不可写入 解决办法: (1)修改最大分片数量(具体分片数量视业务场景而定) 在kibana的De…

Win300英雄服务器不显示,大神为你解决win7系统删除300英雄游戏的解决方案

技术小编发觉操作系统在使用途中会有win7系统删除300英雄游戏的问题,当然听说还有一部分电脑爱好者不会搞定win7系统删除300英雄游戏这样的问题,因此小编接下来就为朋友们解说win7系统删除300英雄游戏的整个操作思路,仿照1、首先,…

Win300英雄服务器不显示,win10系统玩不了300英雄的还原步骤

有关win10系统玩不了300英雄的操作方法想必大家有所耳闻。但是能够对win10系统玩不了300英雄进行实际操作的人却不多。其实解决win10系统玩不了300英雄的问题也不是难事,小编这里提示两点:  1、首先将300英雄完全卸载并删除干净;  2、重新…

Win300英雄服务器不显示,win7系统玩不了300英雄的解决方法

很多小伙伴都遇到过win7系统玩不了300英雄的困惑吧,一些朋友看过网上零散的win7系统玩不了300英雄的处理方法,并没有完完全全明白win7系统玩不了300英雄是如何解决的,今天小编准备了简单的解决办法,只需要按照  1、首先将300英雄…

日服人物一览(按实装版本倒序)

目录 2022年2021年2020年2019年2018年2017年 背景色区分5★NSASES显现/真显现3~4★ 2022年 2.14.21ねここASナギ2.14.21ヴィアッカASセティーAS2.14.10シンシアAS2.14.0クロードES2.13.81アィシャソイラAS2.13.70ウクアージユキノAS2.13.60レレASロキドAS2.13.50アルマ2.13.3…

妄想性仮想人格障害 汉化补丁(BUG修正)

YG剧情和主程序汉化经历了2个月 有很多主观原因 和客观原因 客观来说喜欢T社人很少 这个没有什么疑义的 感谢 椰子参加翻译 感谢 血色玲珑 处理发音引擎.... 8/17修正某些剧情出错问题 https://www.easy-share.com/1913138528/

月光のカルネヴァーレ 汉化补丁

【遊戲名稱/Name】:月光のカルネヴァーレ 【遊戲廠商/Company】:ニトロプラス 【發售日期/Sale date】:2007-01-26 回老家被该死的小鬼们玩死之前可以先玩到月光。。。咱已经没有遗憾了 ——by世界没有差异 首先,我想感谢CCTV、感谢MTV、感谢…

《机动战士高达EXVS极限爆发》rpcs3模拟器游玩教程

前言:最新刚换的暗影精灵7,闲来无事想起自己19年用自己渣笔记(i56300H1066)跑不动这游戏的日子,现在换电脑了应该是可以跑得动了。然后就遇到了一个问题——资源和教程已经忘得一干二净了,只能从头再来了。…

【福利!】英雄联盟国服更新补丁速度极慢的解决方法

各位撸友肯定经常遇到每当英雄联盟更新好几百兆的补丁时 本来拥有很快下载速度的宽带,此时却给不了力。 其实,这都是腾讯在捣乱,具体怎么捣乱,这个就不属于我们讨论范围 我们只需要知道,如何更快速的更新好游戏&#x…
最新文章