专利名称:环境音生成方法、装置及存储介质
专利类型:实用新型专利
专利申请号:CN202410738760.6
专利申请(专利权)人:深圳创维显示技术有限公司
权利人地址:广东省深圳市南山区粤海街道高新区社区高新南一道008号创维大厦A1306
专利发明(设计)人:郭晓燕
专利摘要:本申请涉及一种环境音生成方法、装置及存储介质,所述环境音生成方法通过获取环境音播放模式和合成系数,并确定环境音播放模式对应的目标播放时间,在实时时间达到目标播放时间的情况下,获取实时时间对应的实时环境状态信息,以在预设数据库中,提取实时环境状态信息对应的目标声音数据,随后采用目标声音数据和合成系数,进行声音合成,生成目标环境音,从而达到生成类现实的环境音的目的,解决了现有技术方案中无法输出类现实的环境音的问题。
主权利要求:
1.一种环境音生成方法,其特征在于,包括:获取合成系数和环境音播放模式;
确定所述环境音播放模式对应的目标播放时间;
在实时时间达到所述目标播放时间的情况下,获取所述实时时间对应的实时环境状态信息;
在预设数据库中,提取所述实时环境状态信息对应的目标声音数据;
采用所述目标声音数据和所述合成系数,进行声音合成,生成目标环境音;
所述获取环境音播放模式,包括:
响应于模式调节操作,生成模式调节信息,所述模式调节信息中包含模式标识、播放时间调节信息以及系数调节信息;
确定所述模式标识对应的待调节播放模式;
基于所述播放时间调节信息和所述系数调节信息对所述待调节播放模式进行调节,得到所述环境音播放模式。
2.根据权利要求1所述的环境音生成方法,其特征在于,所述获取所述实时时间对应的实时环境状态信息,包括:获取位置信息;
依据所述实时时间和所述位置信息,生成所述实时环境状态信息。
3.根据权利要求2所述的环境音生成方法,其特征在于,所述依据所述实时时间和所述位置信息,生成所述实时环境状态信息,包括:确定所述实时时间对应的天气信息;
将所述实时时间、所述位置信息以及所述天气信息,确定为所述实时环境状态信息。
4.根据权利要求1所述的环境音生成方法,其特征在于,所述预设数据库包含第一数据库和第二数据库,所述在预设数据库中,提取所述实时环境状态信息对应的目标声音数据,包括:在所述第一数据库中,提取所述实时环境状态信息对应的第一声音数据;
在所述第二数据库中,提取所述实时环境状态信息对应的第二声音数据;
将所述第一声音数据和所述第二声音数据,确定为所述目标声音数据。
5.根据权利要求4所述的环境音生成方法,其特征在于,所述合成系数包含第一系数和第二系数,所述采用所述目标声音数据和所述合成系数,进行声音合成,生成目标环境音,包括:将所述第一系数与所述目标声音数据中的所述第一声音数据进行结合,得到第一待合成声音数据;
将所述第二系数与所述目标声音数据中的所述第二声音数据进行结合,得到第二待合成声音数据;
采用所述第一待合成声音数据和所述第二待合成声音数据进行声音合成,生成目标环境音。
6.根据权利要求1所述的环境音生成方法,其特征在于,所述采用所述目标声音数据和所述合成系数,进行声音合成,生成目标环境音,包括:获取用户输入声音数据;
采用所述目标声音数据和所述合成系数,结合所述用户输入声音数据,进行声音合成,生成目标环境音。
7.根据权利要求1所述的环境音生成方法,其特征在于,所述基于所述播放时间调节信息和所述系数调节信息对所述待调节播放模式进行调节,得到所述环境音播放模式,包括:确定所述待调节播放模式对应的待调节播放时间和待调节系数;
基于所述播放时间调节信息对所述待调节播放时间进行调节,得到所述目标播放时间;
基于所述系数调节信息对所述待调节系数进行调节,得到所述合成系数;
依据所述目标播放时间和所述合成系数,确定所述环境音播放模式。
8.一种环境音生成装置,其特征在于,包括:获取模块,用于获取合成系数和环境音播放模式;
确定模块,用于确定所述环境音播放模式对应的目标播放时间;
实时模块,用于在实时时间达到所述目标播放时间的情况下,获取所述实时时间对应的实时环境状态信息;
提取模块,用于在预设数据库中,提取所述实时环境状态信息对应的目标声音数据;
合成模块,用于采用所述目标声音数据和所述合成系数,进行声音合成,生成目标环境音;
获取模块包括:
第一响应单元,用于响应于模式调节操作,生成模式调节信息,所述模式调节信息中包含模式标识、播放时间调节信息以及系数调节信息;
第二确定单元,用于确定所述模式标识对应的待调节播放模式;
第一调节单元,用于基于所述播放时间调节信息和所述系数调节信息对所述待调节播放模式进行调节,得到所述环境音播放模式。
9.一种电子设备,其特征在于,包括处理器、通信接口、存储器和通信总线,其中,处理器,通信接口,存储器通过通信总线完成相互间的通信;
存储器,用于存放计算机程序;
处理器,用于执行存储器上所存放的程序时,实现权利要求1‑7任一项所述的环境音生成方法。 说明书 : 环境音生成方法、装置及存储介质技术领域[0001] 本申请涉及音频处理领域,尤其涉及一种环境音生成方法、装置及存储介质。背景技术[0002] 随着社会的发展,人们主要生活在城市中,忙碌于家与公司之间的事务,严重减少了接触了解大自然的时间。在长时间未接触自然环境的情况下,人们容易出现诸如失眠多梦、睡过头、烦躁或迷茫等情形,影响身心健康等行为。考虑到自然界的大自然声音对于人们的不利情绪具有一定调节作用,如在出现烦躁情绪时,聆听自然流水声音可以起到抚平情绪的作用,但是受生活场景或环境的限制,无法实时获取自然环境声音,因此无法输出类现实的环境音。发明内容[0003] 为了解决上述技术问题,本申请提供了一种环境音生成方法、装置及存储介质。[0004] 第一方面,本申请提供了一种环境音生成方法,包括:[0005] 获取合成系数和环境音播放模式;[0006] 确定所述环境音播放模式对应的目标播放时间;[0007] 在实时时间达到所述目标播放时间的情况下,获取所述实时时间对应的实时环境状态信息;[0008] 在预设数据库中,提取所述实时环境状态信息对应的目标声音数据;[0009] 采用所述目标声音数据和所述合成系数,进行声音合成,生成目标环境音。[0010] 可选的,所述预设数据库包含第一数据库和第二数据库,所述在预设数据库中,提取所述实时环境状态信息对应的目标声音数据,包括:[0011] 在所述第一数据库中,提取所述实时环境状态信息对应的第一声音数据;[0012] 在所述第二数据库中,提取所述实时环境状态信息对应的第二声音数据;[0013] 将所述第一声音数据和所述第二声音数据,确定为所述目标声音数据。[0014] 可选的,所述合成系数包含第一系数和第二系数,所述采用所述目标声音数据和所述合成系数,进行声音合成,生成目标环境音,包括:[0015] 将所述第一系数与所述目标声音数据中的所述第一声音数据进行结合,得到第一待合成声音数据;[0016] 将所述第二系数与所述目标声音数据中的所述第二声音数据进行结合,得到第二待合成声音数据;[0017] 采用所述第一待合成声音数据和所述第二待合成声音数据进行声音合成,生成目标环境音。[0018] 可选的,所述采用所述目标声音数据和所述合成系数,进行声音合成,生成目标环境音,包括:[0019] 获取用户输入声音数据;[0020] 采用所述目标声音数据和所述合成系数,结合所述用户输入声音数据,进行声音合成,生成目标环境音。[0021] 可选的,所述获取环境音播放模式,包括:[0022] 响应于模式调节操作,生成模式调节信息,所述模式调节信息中包含模式标识、播放时间调节信息以及系数调节信息;[0023] 确定所述模式标识对应的待调节播放模式;[0024] 基于所述播放时间调节信息和所述系数调节信息对所述待调节播放模式进行调节,得到所述环境音播放模式。[0025] 可选的,所述基于所述播放时间调节信息和所述系数调节信息对所述待调节播放模式进行调节,得到所述环境音播放模式,包括:[0026] 确定所述待调节播放模式对应的待调节播放时间和待调节系数;[0027] 基于所述播放时间调节信息对所述待调节播放时间进行调节,得到所述目标播放时间;[0028] 基于所述系数调节信息对所述待调节系数进行调节,得到所述合成系数;[0029] 依据所述目标播放时间和所述合成系数,确定所述环境音播放模式。[0030] 可选的,所述获取所述实时时间对应的实时环境状态信息,包括:[0031] 确定所述实时时间对应的天气信息,并获取所述位置信息;[0032] 将所述实时时间、所述位置信息以及所述天气信息,确定为所述实时环境状态信息。[0033] 第二方面,本申请提供了一种环境音生成装置,包括:[0034] 获取模块,用于获取合成系数和环境音播放模式;[0035] 确定模块,用于确定所述环境音播放模式对应的目标播放时间;[0036] 实时模块,用于实时时间达到所述目标播放时间的情况下,获取所述实时时间对应的实时环境状态信息;[0037] 提取模块,用于在预设数据库中,提取所述实时环境状态信息对应的目标声音数据;[0038] 合成模块,用于采用所述目标声音数据和所述合成系数,进行声音合成,生成目标环境音。[0039] 第三方面,提供了一种电子设备,包括处理器、通信接口、存储器和通信总线,其中,处理器,通信接口,存储器通过通信总线完成相互间的通信;[0040] 存储器,用于存放计算机程序;[0041] 处理器,用于执行存储器上所存放的程序时,实现第一方面任一项所述的环境音生成方法。[0042] 第四方面,提供了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现如第一方面任一项所述的环境音生成方法。[0043] 本申请实施例通过获取合成系数和环境音播放模式,并确定环境音播放模式对应的目标播放时间,在实时时间达到目标播放时间的情况下,获取实时时间对应的实时环境状态信息,以在预设数据库中,提取实时环境状态信息对应的目标声音数据,随后采用目标声音数据和合成系数,进行声音合成,生成目标环境音,以便后续可以通过该目标环境音输出输出类现实的环境音,给予用户犹如身处大自然的体验感,从而达到生成类现实的环境音的目的,解决了现有无法输出类现实的环境音的问题。附图说明[0044] 此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本发明的实施例,并与说明书一起用于解释本发明的原理。[0045] 为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。[0046] 图1为本申请实施例提供的一种环境音生成方法的流程示意图;[0047] 图2为本申请实施例提供的一种环境音生成方法的应用场景示意图;[0048] 图3为本申请实施例提供的一种环境音生成方法的另一应用场景示意图;[0049] 图4为本申请实施例提供的一种环境音生成装置的结构示意图;[0050] 图5为本申请实施例提供的一种电子设备的结构示意图。具体实施方式[0051] 为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请的一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本申请保护的范围。[0052] 自然环境声音具有抚平情绪的作用,例如在处于烦躁情绪时,若可以聆听鸟鸣声、水流声、叫卖声、脚步声、虫鸣声、风声、水滴声等等各类自然环境的声音,则会对情绪起到抚平的作用;而如今人们接触自然环境的机会通常较少,也即容易出现不利情况,尤其是在睡前或睡醒的时间段情绪难以控制,现有传统技术手段中,通常只能播放预先录制的自然环境声音,以供用户进行选取聆听,该方式虽然可以为用户提供自然环境声音,但是至少存在两方面的问题,一方面需要用户主动去获取,例如下载、播放等步骤,也即存在播放步骤繁琐的问题,另一方面,不同的地理位置、不同的日期时间均会存在不同的自然环境声音,此时播放会出现预先录制的自然环境声音会存在与用户当前地理位置或日期时间不对应的问题,导致自然环境声音与现实的环境音不匹配的问题。[0053] 本申请为了解决现有技术方案中的只能播放预先录制的自然环境声音,存在播放步骤繁琐,和与现实的环境音不匹配的问题,本申请实施例提供一种环境音生成方法、装置及存储介质,通过获取合成系数和环境音播放模式,并确定环境音播放模式对应的目标播放时间,在实时时间达到目标播放时间的情况下,获取实时时间对应的实时环境状态信息,以在预设数据库中,提取实时环境状态信息对应的目标声音数据,随后采用目标声音数据和合成系数,进行声音合成,生成目标环境音,以便后续可以通过该目标环境音输出输出类现实的环境音,给予用户犹如身处大自然的体验感,从而达到生成类现实的环境音的目的,解决了现有技术方案中无法输出类现实的环境音的问题;并且无需用户主动去获取,简化了目标环境音的获取方式,以及目标环境音是与实时环境状态信息相对应,实现了目标环境音与现实的环境音匹配的效果。[0054] 图1为本申请实施例提供的一种环境音生成方法的流程示意图。[0055] 如图1所示的,本申请公开一实施例,提供了一种环境音生成方法,可以包括如下步骤:[0056] 步骤S110:获取合成系数和环境音播放模式。[0057] 具体的,本实施例环境音生成方法可以应用于电视机、客户端、电视终端、音频播放设备等具备音频输出能力的主体,而环境音播放模式用于表示当前具备音频输出能力的主体开启环境音的播放模式,播放模式可以是夜晚睡眠模式、早上叫醒模式、用户手动设置模式等;合成系数则是表示合成环境音过程中应用的系数,不同的环境音播放模式可以对应相同或不同的合成系数,也即合成系数可以是与环境音播放模式一一对应,也可以是各个模式均采用统一的环境音播放模式,还可以是根据具体应用场景进行自适应的调整环境音播放模式,当然还可以采用其他方式,本实施例对此不做具体限定。[0058] 在一例子中,以电视机为例进行说明,在电视机启动的情况下,可以检测电视机当前是否存在开启的播放模式,若存在开启的播放模式,则将开启的播放模式确定为环境音播放模式,例如电视机预先配置的播放模式有夜晚睡眠模式和早上叫醒模式,此时检查到具备音频输出能力的主体当前开启的播放模式为夜晚睡眠模式,此时则将夜晚睡眠模式确定为环境音播放模式,当然还可以采用其他获取具备音频输出能力的主体环境音播放模式的方式,本实施例对此不做具体限定。[0059] 步骤S120:确定环境音播放模式对应的目标播放时间。[0060] 具体的,在获取环境音播放模式之后,则可以确定环境音播放模式对应的目标播放时间和合成系数,其中目标播放时间表示播放环境音的时间,不同的环境音播放模式可以对应相同或不同的目标播放时间;例如环境音播放模式A对应的目标播放时间为8点整,合成系数为K1、K2、K3,而环境音播放模式B对应的目标播放时间为8点整,合成系数为K1’、K2’、K3’;以上仅为示例说明作用,本实施例不做具体限定。[0061] 步骤S130:在实时时间达到目标播放时间的情况下,获取实时时间对应的实时环境状态信息。[0062] 具体的,在确定环境音播放模式对应的目标播放时间后,则可以实时采集实时时间,实时时间表示当前具备音频输出能力的主体的实时时间,并判断实时时间是否达到目标播放时间,在实时时间未达到目标播放时间的情况下,可以确定当前并不需要播放环境音,则可以继续采集实时时间进行判断,而在实时时间达到目标播放时间的情况下,可以确定当前需要播放环境音,此时可以获取实时时间对应的实时环境状态信息,实时环境状态信息表示当前采集到的具备音频输出能力的主体所处环境的状态信息,例如时间日期、地理位置等信息。[0063] 在一例子中,实时环境状态信息中的状态信息类型可以是预先配置,例如预先配置实时环境状态信息中的状态信息类型有时间日期类型的状态信息和地理位置类型的状态信息,在具备音频输出能力的主体实时时间达到目标播放时间的情况下,则可以获取具备音频输出能力的主体所处环境的时间日期状态信息和地理位置状态信息,并将时间日期状态信息和地理位置状态信息作为实时环境状态信息,当然实时环境状态信息中的状态信息还可以根据具体需求进行手动调整或者适应性自动调整,本实施例对此不做具体限定。[0064] 步骤S140:在预设数据库中,提取实时环境状态信息对应的目标声音数据。[0065] 具体的,确定实时环境状态信息后,可以在预设数据库中,提取实时环境状态信息对应的目标声音数据,其中预设数据库表示预先配置且实时更新的一个或多个声音数据库,例如气候声音库、地理地形声音库、人文风俗声音库、物种声音库等等,也即预设数据库中可以包含一个或多个声音数据;目标声音数据则表示在预设数据库中与实时环境状态信息匹配的声音数据,也即在提取目标声音数据的过程可以是,将实时环境状态信息与预设数据库中的声音数据进行匹配,并将于实时环境状态信息匹配的声音数据确定为目标声音数据,需要说明的是,本实施例中的目标声音数据可以包含一个或多个声音数据,并且各个声音数据可以从不同的预设数据中提取。[0066] 在一例子中,预设数据库中的声音数据包含环境标识,环境标识用于标识该声音数据所对应的环境,例如预设数据库为气候声音库时,气候声音库中的声音数据包含气候声音和该气候声音对应的环境标识,环境标识可以日期标识和位置标识,日期标识用于标识该气候声音对应的日期,位置标识用于标识该气候声音对应的位置;并且环境标识与实时环境状态信息相匹配,例如实时环境状态信息包含时间日期、地理位置的情况下,环境标识则包含日期标识和位置标识,从而可以依据时间日期、地理位置和日期标识和位置标识的匹配关系,在预设数据库中提取与实时环境状态信息匹配的目标声音数据。[0067] 步骤S150:采用目标声音数据和合成系数,进行声音合成,生成目标环境音。[0068] 具体的,在确定目标声音数据后,可以采用目标声音数据和合成系数,进行声音合成,生成目标环境音,其中声音合成的方式可以采用预先训练完成的神经网络模型或者计算模型等方式进行合成;需要说明的是,本实施例中目标声音数据中的声音数据数量,与合成系数中的系数数量是相匹配的,具体的匹配方式可以是一一匹配,也可以是一对多匹配等方式,以一一匹配为例进行举例说明,目标声音数据中的声音数据数量为3个,包含声音数据A、声音数据B、声音数据C,合成系数中的系数数量也为3个,包含合成系数A’、合成系数B’、合成系数C’,此时则可以将声音数据A于合成系数A’结合,声音数据B于合成系数B’结合,声音数据C于合成系数C’结合,将声音数据和合成系数一一结合,以此进行声音合成,生成目标环境音,并且可以通过具备音频输出能力的主体进行播放该目标环境音,从而起到了在目标播放时间播放目标环境音的作用。[0069] 本实施例通过获取环境音播放模式,并确定合成系数和环境音播放模式对应的目标播放时间,在实时时间达到目标播放时间的情况下,获取实时时间对应的实时环境状态信息,以在预设数据库中,提取实时环境状态信息对应的目标声音数据,由于提取的目标声音数据是于实时环境状态信息相对应的,从而可以避免出现后续生成的环境声音与实时环境不匹配的问题,起到了将目标声音数据与实时环境状态信息进行配对匹配的作用;随后采用目标声音数据和合成系数,进行声音合成,生成目标环境音,从而达到实时生成与实时环境状态信息对应的目标环境音的目的,用以抚平情绪,解决了长时间未接触大自然或者未聆听到自然环境声音时,易出现不利情绪的问题;并且无需用户主动去获取,简化了目标环境音的获取方式,以及目标环境音是与实时环境状态信息相对应,实现了目标环境音与实时环境匹配的效果。[0070] 在本申请一可选的实施例中,步骤S130获取实时时间对应的实时环境状态信息,具体可以包括如下子步骤:获取位置信息;[0071] 依据实时时间和位置信息,生成实时环境状态信息。[0072] 本实施例中,在实时时间达到目标播放时间的情况下,可以获取位置信息,位置信息表示具备音频输出能力的主体所处位置的信息,从而可以依据实时时间和位置信息,生成实时环境状态信息,使得实时环境状态信息可以用于指示具备音频输出能力的主体所处环境的状态信息,如时间、位置等,后续依据实时环境状态信息生成的目标环境音则可以使得目标环境音与实时环境状态信息相对应,实现了目标环境音与现实的环境音匹配的效果。[0073] 在本申请一可选的实施例中,依据实时时间和位置信息,生成实时环境状态信息,具体可以包括如下子步骤:确定实时时间对应的天气信息;[0074] 将实时时间、位置信息以及天气信息,确定为实时环境状态信息。[0075] 本实施例中在获取获取位置信息后,可以确定实时时间对应的天气信息,并将实时时间、位置信息以及天气信息,确定为实时环境状态信息,进而在预设数据库中,可以提取与实时时间、位置信息以及天气信息对应的目标声音数据的作用,使得目标声音数据是与具备音频输出能力的主体所处环境密切相关的声音数据,可以避免出现后续生成的环境声音与实时环境不匹配的问题,起到了将目标声音数据与实时环境状态信息进行配对匹配的作用;随后采用目标声音数据和合成系数,进行声音合成,生成目标环境音,从而达到实时生成与实时环境状态信息对应的目标环境音的目的,用以抚平情绪,解决了长时间未接触大自然或者未聆听到自然环境声音时,易出现不利情绪的问题;并且无需用户主动去获取,简化了目标环境音的获取方式,以及目标环境音是与实时环境状态信息相对应,实现了目标环境音与实时环境匹配的效果。[0076] 在一例子中,以电视机为例进行说明,获取电视机的环境音播放模式为夜晚睡眠模式,此时确定夜晚睡眠模式对应的目标播放时间为22点,合成系数为K1、K2....KM,在电视机的实时时间达到22点的情况下,获取22点对应的实时环境状态信息,也即实时时间的日期Q、位置信息W以及天气信息E,在预设数据库中,提取日期Q、位置信息W以及天气信息E对应的目标声音数据,例如在气候声音数据库中提取日期Q、位置信息W以及天气信息E对应的气候声音数据,在地理地形声音数据库中提取日期Q、位置信息W以及天气信息E对应的地理地形声音数据,采用气候声音数据和地理地形声音数据,结合合成系数K1、K2,进行声音合成,生成目标环境音;从而可以实时生成与实时时间、位置信息以及天气信息对应的目标环境音,也即使得目标环境音可以实时匹配不同时间、不同位置以及不同天气的具体环境,并且无需用户主动获取,而是依据环境音播放模式进行实时生成,由此简化了目标环境音的获取方式,以及目标环境音是与实时环境状态信息相对应,实现了目标环境音与实时环境匹配的效果;也即使得电视机可以根据当地当天的实际外界环境状态生成并播放对应的目标环境音。其中目标环境音中可以有鸟鸣声、水流声、叫卖声、脚步声、虫鸣声、风声、水滴声等等各类自然界的声音;根据不同的环境音播放模式可以在不同的目标播放时间,如每天早上或者夜晚,经过预设数据库获取当地当天的自然生态目标声音数据,对这些目标声音数据进行声音合成后进行播放,以给予用户犹如身处大自然的体验感。[0077] 在本申请一可选的实施例中,预设数据库包含第一数据库和第二数据库,步骤S140在预设数据库中,提取实时环境状态信息对应的目标声音数据,具体可以包括如下子步骤:在第一数据库中,提取实时环境状态信息对应的第一声音数据;在第二数据库中,提取实时环境状态信息对应的第二声音数据;将第一声音数据和第二声音数据,确定为目标声音数据。[0078] 本实施例中,预设数据库中包含的第一数据库和第二数据库表示不同的声音数据库,例如第一数据库为气候声音库,第二数据库为地理地形声音库;此时提取实时环境状态信息对应的目标声音数据的具体方式,可以是在第一数据库中,提取实时环境状态信息对应的第一声音数据,以及在第二数据库中,提取实时环境状态信息对应的第二声音数据,并将第一声音数据和第二声音数据,确定为目标声音数据,当然预设数据库还可以包含三个、四个以及多个不同的声音数据库,对于每个声音数据均执行上述提取声音数据的过程,并将各个声音数据中提取的声音数据作为目标声音数据,也即目标声音数据中可以包含多个声音数据。[0079] 在本申请一可选的实施例中,合成系数包含第一系数和第二系数,步骤S150采用目标声音数据和合成系数,进行声音合成,生成目标环境音,具体可以包括如下子步骤:将第一系数与目标声音数据中的第一声音数据进行结合,得到第一待合成声音数据;将第二系数与目标声音数据中的第二声音数据进行结合,得到第二待合成声音数据;采用第一待合成声音数据和第二待合成声音数据进行声音合成,生成目标环境音。[0080] 本实施例中合成系数中包含的第一系数和第二系数,表示用于匹配不同声音数据的系数,例如第一系数用于匹配第一声音数据,第二系数用于匹配第二声音数据;在采用目标声音数据和合成系数,进行声音合成的过程中,可以是将相互匹配的第一系数与目标声音数据中的第一声音数据进行结合,得到第一待合成声音数据,将相互匹配的第二系数与目标声音数据中的第二声音数据进行结合,得到第二待合成声音数据;随后采用第一待合成声音数据和第二待合成声音数据进行声音合成,生成目标环境音,当然还可以采用多个声音数据和和多个系数之间的对应关系,进行结合生成多个待合成声音数据,声音数据和系数可以一一对应,一对多对应,多对一对应等关系;而系数与声音数据的结合得到待合成声音数据的方式可以是线性结合也可以是公式结合,本实施例对此不做具体限定;而将第一待合成声音数据和第二待合成声音数据进行声音合成,生成目标环境音的方式,则可以采用预先训练完成的神经网络模型或者计算模型等方式进行合成。[0081] 在一示例中,合成系数包含的第一系数为气候系数和第二系数为地理地形系数,目标声音数据中包含第一声音数据为气候声音数据,第二声音数据为地理地形声音数据,可以参考如下公式w表示合成系数,x表示目标声音数据,n表示气候或地理地形,k和b为调整系数,Y为目标环境音,也即w1*x1表示将气候系数与气候声音数据进行相乘结合,得到的第一待合成声音数据,w2*x2表示将地理地形系数与地理地形声音数据进行相乘结合,得到第二待合成声音数据,Y表示将第一待合成声音数据和第二待合成声音数据进行线性相加合成,生成目标环境音。当然具体实施时可以包含多个声音数据和多个合成系数,如图3所示,目标声音数据可以包括气候声音数据X1、地理地形声音数据X2、人文风俗声音数据X3、物种声音数据X4、预设声音数据X5、用户反馈声音数据X6、其他声音数据Xm等,合成系数可以包含W1、W2、.....Wm。[0082] Y=k +b[0083] 在本申请一可选的实施例中,步骤S150采用目标声音数据和合成系数,进行声音合成,生成目标环境音,具体可以包括如下子步骤:获取用户输入声音数据;采用目标声音数据和合成系数,结合用户输入声音数据,进行声音合成,生成目标环境音。[0084] 本实施例中,在具体应用时由于不同用户的声音需求和使用场景不同,可能存在用户需要再目标环境音生成过程中添加某些特定声音数据的情况,此时则可以检查是否接受到用户输入声音数据,用户输入声音数据表示用户输入的声音数据,此时在生成目标环境音的过程,则可以是采用目标声音数据和合成系数的基础上,再结合用户输入声音数据,进行声音合成,从而生成目标环境音,使得生成的目标环境音中可以包含用户输入声音数据,以此满足不同用户对于特定声音数据需求的场景。[0085] 在本申请一可选的实施例中,步骤S110获取环境音播放模式,具体可以包括如下子步骤:响应于模式调节操作,生成模式调节信息,模式调节信息中包含模式标识、播放时间调节信息以及系数调节信息;确定模式标识对应的待调节播放模式;基于播放时间调节信息和系数调节信息对待调节播放模式进行调节,得到环境音播放模式。[0086] 本实施例中,在具体应用时由于不同用户的声音需求和使用场景不同,对于播放模式可能存在调节的需求,而播放模式是预先完成配置的模式;从而可以检查是否接收到用户输入的模式调节操作,模式调节操作可以在预设操作界面进行输出,预设操作界面可以如图2所示;在接收到模式调节操作的情况下,可以响应于模式调节操作,生成模式调节信息,模式调节信息表示模式调节操作所生成的信息,模式调节信息中包含模式标识、播放时间调节信息以及系数调节信息,模式标识表示模式调节操作对应操作的播放模式的标识,播放时间调节信息表示模式调节操作输入调节时间的信息,系数调节信息表示模式调节操作输入调节系数的信息,从而可以将模式标识对应的播放模式确定为待调节播放模式,进而基于播放时间调节信息和系数调节信息对待调节播放模式进行调节,得到环境音播放模式,由此起到对预设的播放模式进行调节的作用,使得用户可以适应性的调节各个播放模式。[0087] 在本申请一可选的实施例中,基于播放时间调节信息和系数调节信息对待调节播放模式进行调节,得到环境音播放模式,具体可以包括如下子步骤:[0088] 确定待调节播放模式对应的待调节播放时间和待调节系数;[0089] 基于播放时间调节信息对待调节播放时间进行调节,得到目标播放时间;[0090] 基于系数调节信息对待调节系数进行调节,得到合成系数;[0091] 依据目标播放时间和合成系数,确定环境音播放模式。[0092] 本实施例中,在确定待调节播放模式之后,可以确定待调节播放模式对应的待调节播放时间和待调节系数,待调节播放时间表示待调节播放模式下播放目标环境音的时间,待调节系数表示在生成目标环境音过程中需要进行结合的系数,从而可以基于播放时间调节信息对待调节播放时间进行调节,得到目标播放时间,以及基于系数调节信息对待调节系数进行调节,得到合成系数,起到了对待调节播放模式对应的待调节播放时间和待调节系数进行调节的作用,随后可以将依据目标播放时间和合成系数,确定环境音播放模式。[0093] 在一示例中,以电视机为例进行说明,电视机中预先配置有播放模式A和播放模式B,此时用户根据需求输入模式调节操作,从而响应于模式调节操作,生成模式调节信息,模式调节信息中包含模式标识A、播放时间调节信息为播放时间由9点调节为8点的信息,以及系数调节信息为将合成系数由n调节为m的信息,此时可以依据模式标识A确定播放模式A为待调节播放模式,并确定播放模式A对应的待调节播放时间为8点和待调节系数为n,基于播放时间调节信息和系数调节信息对播放模式A的待调节播放时间8点调节为目标播放时间8点,基于系数调节信息对待调节系数n进行调节,得到合成系数m,进而依据目标播放时间8点和合成系数m,确定环境音播放模式;起到根据模式调节操作对预先配置的播放模式进行调节的作用,提高了环境音播放模式的灵活性。[0094] 如图4所示的,本申请还公开一实施例,提供了一种环境音生成装置,包括:[0095] 获取模块410,用于获取合成系数和环境音播放模式;[0096] 确定模块420,用于确定环境音播放模式对应的目标播放时间;[0097] 实时模块430,用于在实时时间达到目标播放时间的情况下,获取实时时间对应的实时环境状态信息;[0098] 提取模块430,用于在预设数据库中,提取实时环境状态信息对应的目标声音数据;[0099] 合成模块450,用于采用目标声音数据和合成系数,进行声音合成,生成目标环境音。[0100] 在本申请一可选的实施例中,所述预设数据库包含第一数据库和第二数据库,提取模块430可以包括:[0101] 第一提取单元,用于在所述第一数据库中,提取所述实时环境状态信息对应的第一声音数据;[0102] 第二提取单元,用于在所述第二数据库中,提取所述实时环境状态信息对应的第二声音数据;[0103] 第一确定单元,用于将所述第一声音数据和所述第二声音数据,确定为所述目标声音数据。[0104] 在本申请一可选的实施例中,所述合成系数包含第一系数和第二系数,合成模块450可以包括:[0105] 第一结合单元,用于将所述第一系数与所述目标声音数据中的所述第一声音数据进行结合,得到第一待合成声音数据;[0106] 第二结合单元,用于将所述第二系数与所述目标声音数据中的所述第二声音数据进行结合,得到第二待合成声音数据;[0107] 第一合成单元,用于采用所述第一待合成声音数据和所述第二待合成声音数据进行声音合成,生成目标环境音。[0108] 在本申请一可选的实施例中,合成模块450可以包括:[0109] 第一获取单元,用于获取用户输入声音数据;[0110] 第三结合单元,用于采用所述目标声音数据和所述合成系数,结合所述用户输入声音数据,进行声音合成,生成目标环境音。[0111] 在本申请一可选的实施例中,获取模块410可以包括:[0112] 第一响应单元,用于响应于模式调节操作,生成模式调节信息,所述模式调节信息中包含模式标识、播放时间调节信息以及系数调节信息;[0113] 第二确定单元,用于确定所述模式标识对应的待调节播放模式;[0114] 第一调节单元,用于基于所述播放时间调节信息和所述系数调节信息对所述待调节播放模式进行调节,得到所述环境音播放模式。[0115] 在本申请一可选的实施例中,第一调节单元,用于可以包括:[0116] 第一确定子单元,用于确定所述待调节播放模式对应的待调节播放时间和待调节系数;[0117] 第一调节子单元,用于基于所述播放时间调节信息对所述待调节播放时间进行调节,得到所述目标播放时间;[0118] 第二调节子单元,用于基于所述系数调节信息对所述待调节系数进行调节,得到所述合成系数;[0119] 第二确定子单元,用于依据所述目标播放时间和所述合成系数,确定所述环境音播放模式。[0120] 在本申请一可选的实施例中,实时模块430可以包括:[0121] 第三确定单元,用于确定所述实时时间对应的天气信息,并获取位置信息;[0122] 第四确定单元,用于将所述实时时间、所述位置信息以及所述天气信息,确定为所述实时环境状态信息。[0123] 上述装置中各个模块的功能和作用的实现过程具体详见上述方法中对应步骤的实现过程,在此不再赘述。[0124] 如图5所示,本申请实施例提供了一种电子设备,包括处理器510、通信接口520、存储器530和通信总线540,其中,处理器510,通信接口520,存储器530通过通信总线540完成相互间的通信;[0125] 存储器530,用于存放计算机程序;[0126] 在本申请一个实施例中,处理器510,用于执行存储器530上所存放的程序时,实现前述任意一个方法实施例提供的环境音生成方法,通过获取合成系数和环境音播放模式,并确定环境音播放模式对应的目标播放时间,在实时时间达到目标播放时间的情况下,获取实时时间对应的实时环境状态信息,以在预设数据库中,提取实时环境状态信息对应的目标声音数据,随后采用目标声音数据和合成系数,进行声音合成,生成目标环境音,以便后续可以通过该目标环境音输出输出类现实的环境音,给予用户犹如身处大自然的体验感,从而达到生成类现实的环境音的目的,解决了现有技术方案中无法输出类现实的环境音的问题;并且无需用户主动去获取,简化了目标环境音的获取方式,以及目标环境音是与实时环境状态信息相对应,实现了目标环境音与现实的环境音匹配的效果。[0127] 本申请实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现如前述任意一个方法实施例提供的环境音生成方法,通过获取合成系数和环境音播放模式,并确定环境音播放模式对应的目标播放时间,在实时时间达到目标播放时间的情况下,获取实时时间对应的实时环境状态信息,以在预设数据库中,提取实时环境状态信息对应的目标声音数据,随后采用目标声音数据和合成系数,进行声音合成,生成目标环境音,以便后续可以通过该目标环境音输出输出类现实的环境音,给予用户犹如身处大自然的体验感,从而达到生成类现实的环境音的目的,解决了现有技术方案中无法输出类现实的环境音的问题;并且无需用户主动去获取,简化了目标环境音的获取方式,以及目标环境音是与实时环境状态信息相对应,实现了目标环境音与现实的环境音匹配的效果。[0128] 需要说明的是,在本文中,诸如“第一”和“第二”等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。[0129] 上述对本说明书实施例特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。[0130] 以上所述仅是本发明的具体实施方式,使本领域技术人员能够理解或实现本发明。对这些实施例的多种修改对本领域的技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所申请的原理和新颖特点相一致的最宽的范围。
专利地区:广东
专利申请日期:2024-06-07
专利公开日期:2024-09-03
专利公告号:CN118314875B