SSH 安全加固有哪些最佳实践和配置方法?SSH 安全加固是保护服务器免受未授权访问和攻击的重要措施。通过合理的配置和最佳实践,可以显著提高 SSH 服务器的安全性。
## 基础安全配置
### 1. 修改默认端口
```bash
# /etc/ssh/sshd_config
Port 2222 # 修改为非标准端口
```
**优势**:
- 减少自动化扫描和暴力破解攻击
- 降低日志噪音
- 增加攻击难度
### 2. 禁用 root 登录
```bash
# /etc/ssh/sshd_config
PermitRootLogin no
```
**最佳实践**:
- 使用普通用户登录后通过 sudo 提权...
服务端 · 2月19日 19:25
如何在 Jest 中测试 API 调用和网络请求?如何 Mock fetch 和 Axios?在 Jest 中测试 API 调用和网络请求需要使用 Mock 来隔离外部依赖:
**1. Mock fetch API:**
```javascript
global.fetch = jest.fn(() =>
Promise.resolve({
json: () => Promise.resolve({ data: 'test' })
})
);
test('fetches data from API', async () => {
const data = await fetchData();
expect(data).toEqual({ data: '...
前端 · 2月19日 13:19
如何在 Jest 中测试 React 组件?常用的测试工具和查询方法有哪些?在 Jest 中测试 React 组件需要结合测试工具和渲染方法:
**常用测试工具:**
- **@testing-library/react**:官方推荐的 React 测试库
- **react-test-renderer**:用于快照测试
- **enzyme**:传统的 React 组件测试工具(较少使用)
**基本测试示例:**
```javascript
import { render, screen, fireEvent } from '@testing-library/react';
import Button from './Button';
test('ren...
前端 · 2月19日 13:16
如何安装 Ollama 以及常用的命令有哪些?Ollama 的安装非常简单,支持多种操作系统:
**macOS 安装:**
```bash
brew install ollama
```
**Linux 安装:**
```bash
curl -fsSL https://ollama.com/install.sh | sh
```
**Windows 安装:**
从官网下载安装包并运行安装程序。
**常用命令:**
1. **运行模型:**
```bash
ollama run llama2
ollama run mistral
ollama run codellama
```
2. **列出已安装的模型:**
```ba...
服务端 · 2月19日 19:29
Ollama 支持哪些大语言模型,如何选择合适的模型?Ollama 支持多种开源大语言模型,主要包括:
**1. Meta Llama 系列:**
- `llama2` - Llama 2 7B/13B/70B
- `llama3` - Llama 3 8B/70B
- `llama3.1` - Llama 3.1 8B/70B/405B
- `llama3.2` - Llama 3.2 1B/3B
**2. Mistral AI 系列:**
- `mistral` - Mistral 7B
- `mixtral` - Mixtral 8x7B
- `mixtral:8x22b` - Mixtral 8x22B
**3. Google...
服务端 · 2月19日 19:30
如何在 Ollama 中使用流式响应(streaming)来实时生成文本?Ollama 支持流式响应,这对于需要实时显示生成内容的应用场景非常重要。
**1. 启用流式响应:**
在 API 调用时设置 `"stream": true` 参数:
```bash
curl http://localhost:11434/api/generate -d '{
"model": "llama3.1",
"prompt": "Tell me a story about AI",
"stream": true
}'
```
**2. Python 流式响应示例:**
```python
import ollama
# 流式生成文本
for chun...
服务端 · 2月19日 19:31
什么是 Ollama 的 Modelfile,如何创建自定义模型?Ollama 使用 Modelfile 来定义和自定义模型。Modelfile 是一个文本文件,类似于 Dockerfile,用于描述如何构建和配置模型。
**Modelfile 基本结构:**
```dockerfile
FROM llama3.1
PARAMETER temperature 0.7
PARAMETER top_p 0.9
PARAMETER num_ctx 4096
SYSTEM You are a helpful assistant.
TEMPLATE """
{{- range .Messages }}
{{- if eq .Role "user" }}U...
服务端 · 2月19日 19:30
如何在 Python、JavaScript 等编程语言中集成 Ollama?Ollama 可以轻松集成到各种编程语言和框架中:
**Python 集成:**
使用 `ollama` Python 库:
```python
import ollama
# 生成文本
response = ollama.generate(model='llama3.1', prompt='Hello, how are you?')
print(response['response'])
# 对话
messages = [
{'role': 'user', 'content': 'Hello!'},
{'role': 'assistant', 'content'...
服务端 · 2月19日 19:30
Ollama API 的主要端点有哪些,如何使用?Ollama 提供了完整的 RESTful API,默认运行在 `http://localhost:11434`。主要 API 端点包括:
**1. 生成文本(POST /api/generate):**
```bash
curl http://localhost:11434/api/generate -d '{
"model": "llama2",
"prompt": "Hello, how are you?",
"stream": false
}'
```
**2. 对话(POST /api/chat):**
```bash
curl http://localhost...
服务端 · 2月19日 19:29
