- 🔭 目前专注:多模态大模型(视觉-语言对齐)与智能体(Agentic)开发,探索LLM在复杂任务中的自主决策能力。
- 🌱 正在学习:模型微调(LoRA/QLoRA)、RAG系统优化、多智能体协作框架(如LangChain/AutoGen/CrewAI)。
- 👯 寻找合作:开源多模态项目、智能体应用落地,欢迎一起交流!
- 💬 与我交流:大模型技术、Agent架构、科研心得。
- 📫 联系我:[lehhe@mails.guet.edu.cn] | [个人博客CSDN链接]
- ⚡ 趣味:🎮 热爱策略游戏 | 📖 科幻小说迷 | 🚴 骑行探索城市
| 项目名称 |
技术栈 |
简介 |
| 多模态检索增强项目 |
PyTorch, CLIP, FAISS |
基于图文预训练模型的跨模态检索系统,支持亿级向量检索 |
| Agentic 任务规划器 |
LangChain, GPT-4, 工具调用 |
实现复杂任务的自动分解与工具调用,具备记忆与反思机制 |
| 本科生科研项目 |
Transformers, Gradio |
多模态大模型在特定领域(如医疗/教育)的微调与部署演示 |
# 我的科研信条:简洁、可复现、启发未来
class MultimodalAgent:
def __init__(self):
self.knowledge = ["vision", "language", "action"]
self.curiosity = float('inf')
def explore(self, task):
print(f"🌌 正在探索: {task}")
return "Agentic insight generated."