加载中
目前主流大模型定位、能力差异、典型应用场景、以及应用选型总结

大型语言模型(LLM)的竞赛在2025年愈发白热化。无论是封闭的商用模型还是开源阵营,各路“大神”频出: OpenAI推出了升级版的GPT-4系列和全新的“O系列”推理模型 Anthropic的Claude进化到3...

Spring AI 模型处理请求过程的可观测性(指标/耗时/追踪)详解

Spring AI能力不断增强,包括其可观测性,主要包含一些指标和追踪能力。下面我们将详细的介绍一下 Spring AI框架的 Observability 概念 Spring AI 基于 Spring 生态系统中的可观察性功能构建...

大模型生成内容的相关性及模型性能的评估方式探讨

为什么要评估测试(Evaluation Testing) 随着大模型技术的推进,评测其性能和能力的需求也日益增长,这不仅仅是技术层面的需求,更关系到商业决策和公众认知。 为什么需要大模型评估测试?主要...

Spring AI 支持向量数据库源码分析

了解向量是什么? 理解向量相关的知识是理解大模型的底层算法的关键,也是理解向量数据库的关键。 向量是有维度(或者大小)和方向的。既然有大小和方向,所以向量是可以计算的,比如向量相加...

Spring AI EmbeddingModel概念与源码分析

什么是EmbeddingModel? EmbeddingModel是指将高维度的数据(例如文字、图片、视频)映射到低维度空间的过程。简单来说,embedding向量就是一个N维的实值向量,它将输入的数据表示成一个连续...

Spring AI对大模型响应结果格式化的源码分析

为什么需要格式化输出 对于依赖可靠解析输出值的下游应用程序来说,生成结构化输出是LLMs非常重要的能力。开发人员希望快速将 AI 模型的结果转换为数据类型,例如 JSON、XML 或 Java 类,这些...

Spring AI Message与ChatMemory源码分析及使用方式总结

1、Spring AI Message类型 UserMessage:用户消息,指用户输入的消息,比如提问的问题。 SystemMessage:系统限制性消息,这种消息比较特殊,权重很大,AI会优先依据SystemMessage里的内容进...

Spring AI 接入OpenAI配置项梳理

本文基于SpringAI 1.0.0梳理,不同模型配置会有差异。 1、连接配置 属性 描述 是否必须配置 默认值 spring.ai.openai.base-url 连接OpenAI地址 必 api.openai.com spring.ai.openai.api-key ...

AGI(通用人工智能)与AI的区别

随着人工智能(AI)技术的快速发展,AGI(Artificial General Intelligence),即通用人工智能,成为了科学界和技术行业的一个重要话题。它代表着人工智能领域的终极目标之一:创建一种能够像...

谷歌A2A协议到底是个啥?和MCP啥关系?调用流程是啥样的?

A2A(Agent to Agent)是一种开放协议,支持Agent到Agent的互操作性,弥合不透明代理系统 之间的差距。 一、详解A2A协议 主要成员 User:使用Agent系统完成任务的最终用户 Client:代表用户向...

Spring AI 通过ChatClient Call MCP支持多模型及模型与提示词结合的方法

Spring AI 本身并不强制指定特定模型,而是提供统一的接口接入不同的大模型服务。本文使用的SpringAI版本是最新版本:1.0.0.M6,基于openai-gpt-4.1o配置方式如下,deepseek-r1:7b等模型配置...

MCP SSE通信模式的安全机制探讨

引言 MCP 事件交互(Server-Sent Events, SSE)是一种基于HTTP的技术,允许服务器向客户端推送实时更新。与WebSocket不同,SSE是单向通信机制,非常适合于需要服务器实时推送数据但不需要客户端...

MCP通信机制总结(Stdio、SSE 、Streamable HTTP)

在人工智能与大型语言模型(LLM)快速发展的今天,如何让模型安全高效地访问外部数据和服务成为关键挑战。MCP(Model Context Protocol) 协议应运而生,它通过标准化的通信机制,为AI模型与...

一篇文搞懂RAG和向量数据库

一、RAG(检索增强生成) RAG技术的基座是向量数据库。向量数据库不仅可以提供对向量化知识的存储,还支持高效的相似性检索,结合Prompt,可有效提升大模型回答的质量。 我们通过一个实例来理...

高速服务框架HSF的基本原理

SOA解决方案——HSF(High-speed Service Framework)是阿里系主要采用的服务框架,其目的是作为桥梁联通不同的业务系统,解耦系统之间的实现依赖。 HSF简介 ▐ 背景 单体应用的主要问题是不同...

LLM(大语言模型)简介

发展历程 语言建模的研究始于20世纪90年代,最初采用了统计学习方法,通过前面的词汇来预测下一个词汇。然而,这种方法在理解复杂语言规则方面存在一定局限性。 随后,研究人员不断尝试改进,...

神经网络激活函数总结

一、引言 在神经网络的架构中,激活函数扮演着举足轻重的角色。它赋予了神经网络对复杂非线性关系的建模能力,打破了传统线性模型的局限性。从简单的感知机到如今复杂的深度神经网络,激活函...

Spring AI与DeepSeek大模型打造企业RAG知识库

一、概述 企业应用集成大语言模型(LLM)落地的两大痛点: 知识局限性:LLM依赖静态训练数据,无法覆盖实时更新或垂直领域的知识; 幻觉:当LLM遇到训练数据外的提问时,可能生成看似合理但错...

DeepSeek+Spring AI搭建RAG知识库

一、RAG 知识库:解锁精准问答的新姿势 在人工智能飞速发展的当下,大语言模型(LLMs)已广泛应用于各种自然语言处理任务。但它们也存在一些局限性,如 “幻觉” 问题,即生成的内容可能与事...

大语言模型LLM工具Ollama简介

一、Ollama的概述 Ollama是一款开源的大型语言模型工具,它专注于为用户提供本地化的运行环境,满足个性化的需求。该工具允许用户快速运行Llama2、Code Llama等多种模型,并提供类似于OpenA...

没有更多内容

加载失败,请刷新页面

返回顶部
顶部