
EduChat是一个教育领域的对话大模型,由华东师范大学计算机科学与技术学院的EduNLP团队研发,旨在为广大老师、学生和家长提供智能教育服务。EduChat可以理解教育场景下多样化的用户问题和需求,实现教、学、考、评、管等各个方面的智能化,协助老师、学生和家长共同成长。EduChat还具备创新的教育特色功能,如开放问答、作文批改、启发式教学和情感支持等。EduChat的相关代码、数据和模型参数已在 Github 和 Hugging Face 等平台开放,促进大模型在智能教育领域的研究和应用发展。
其功能特点有以下几点:
- 多样化的教育场景支撑:可以理解教育场景下多样化的用户问题和需求,实现教、学、考、评、管等各个方面的智能化,协助老师、学生和家长共同成长。
- 个性化的学习建议和推荐:可以根据学生的学习情况和偏好进行个性化的建议和推荐,帮助学生更好地发现和掌握自己的学习方法和技巧。
- 即时的反馈和评估:可以即时给出合适的答案和反馈,帮助学生及时发现和纠正错误,提高学生的学习效率和教师的教学质量。
EduChat的核心功能:
1、开放式问答: 教育领域对知识和相关政策的准确性和实时更新有很高的要求。然而,现有的生成式llm存在着捏造信息和知识更新滞后等问题。为解决这个问题,本文探索了检索增强的开放QA方法。通过利用来自互联网的实时更新的语料库作为外部知识源,使llm能够自主评估检索信息的相关性,以回答给定的问题,并决定纳入哪些信息来生成响应。通过广泛的实验分析,发现所提出模型在消除捏造和保持最新知识方面,比一般llm表现出显著优势。 2、作文批改: 在作文考核中,老师会仔细标注语法错误,给出分数,并对突出的句子提供反馈。现有语言模型评分粒度较粗,限制了学生写作技能的提升。我们的研究专注于更细粒度和更全面的作文评估。我们结合一线教学专业人员的专业知识,提供综合评分、方面级别评分,以及对内容、表达、段落和整体评价的详细评论。该模型可以识别出优秀的句子,突出优势和有待改进的地方,实现对学生论文写作技能的个性化指导。这确保了在写作的各个方面提供及时和专业的支持。 3、启发式教学:我们专注于在llm中培养苏格拉底式的教学能力,而不是向学生提供直接的答案。我们采用苏格拉底式的对话方式,多步骤的问答互动,鼓励独立思考。通过激发讨论、辩论、评估和分析,我们旨在培养高级认知技能和培养学生学习的自主性。我们的最终目标是最大限度地提高批判性思维和创新能力。 4、情感支持: 青少年和儿童由于认知发育不成熟,面临着更严重的心理压力。然而,目前的llm通常提供通用的建议,不能很好地适应具体的情感问题。为了解决这个问题,我们开发了一个基于情绪心理学的心理探究框架,如理性情绪行为疗法(Rationalemotional Behavior Therapy, REBT)和ABC理论(Ellis, 1991)。微调后的模型可以模拟心理咨询师,为用户提供个性化诊断和情感支持。EduChat促进对用户情感状态的更深入的了解,并提供准确和专业的帮助。
数据统计
相关导航

心辰Lingo语音大模型是由西湖心辰(杭州)科技有限公司开发的端到端语音大模型。该模型具备原生语音理解、多种语音风格表达、语音模态超级压缩、实时打断和控制、深度情感理解等功能,能够以超拟人化的方式进行互动。这个模型不仅能快速响应复杂指令,还能深度理解用户的情感和意图。

Mistral AI
Mistral AI 是一家来自法国的人工智能服务商,专注于大型语言模型和生成式人工智能的构建、培训和应用。Mistral AI 的目标是与 OpenAI 和 谷歌 竞争,为企业开发生成式人工智能基础设施。

CineMaster
CineMaster是一个3D感知和可控的文本到视频生成框架,旨在帮助用户创建高质量的电影视频。该框架通过两个阶段的工作流程,赋予用户专业电影导演般的控制力,允许他们在 3D 空间中精确地放置场景中的对象,并灵活地操控对象和摄像机。

MuseTalk
MuseTalk是由腾讯推出的一个实时的高质量音频驱动唇形同步模型,能够根据输入的音频信号自动调整数字人物的面部图像,使其唇形与音频内容高度同步,支持多种语言,并实现每秒30帧以上的实时处理速度。这意味着观众可以看到数字人物的口型与声音完美匹配的效果。

Boximator
Boximator是字节跳动推出的一款利用深度学习技术进行视频合成的先进工具。它使用文本提示和额外的盒子约束来生成丰富且可控制的视频运动,从而为用户创造独特的视频场景提供了灵活的运动控制。具体来说,Boximator可以通过文本精准控制生成视频中人物或物体的动作,能生成包含多个角色以及特定类型运动的复杂场景,并能精确生成物体和背景的细节。

S2V.AI
S2V.Ai是由MiniMax公司推出的一项创新AI视频生成技术,通过S2V-01模型,用户只需上传一张图片,就能将图片中的主体转化为视频中的角色,并实现高度一致性和自然过渡。这项技术为用户提供了快速、低成本、高质量的视频生成解决方案。

Lumiere
Lumiere是谷歌发布的一个文本到视频扩散模型,于2024年正式发布。这个模型能够直接生成全帧率、低分辨率视频,通过训练海量文本和视频数据,可以将文字描述直接转化为高质量、真实、多样且连贯动作的视频。适用于多种内容创作和视频编辑应用,如图像到视频、视频修复和风格化生成。

LTX Video
LTX Video是由 Lightricks公司推出的首个REAL-TIME AI视频生成开源模型。它基于 DiT (Diverse Image Transformer) 架构,能够实时生成高质量的视频。LTX Video 能够以 24 FPS 和 768x512 分辨率生成视频,生成速度比观看速度还要快。
暂无评论...