基于 NSFW.js 的智能图像内容检测服务,快速识别图像中的敏感或不适宜内容。
拖放图片到此区域 或
支持格式:JPEG, PNG, GIF | 最大尺寸:5MB
使用说明
本服务提供基于 NSFW.js 的图像内容安全检测 API 接口,支持上传图片并返回检测结果。
API 接口
请求
POST /api/classify
Content-Type: multipart/form-data
{
"image": "File" // 图片文件(支持 JPEG、PNG、GIF 格式,最大 5MB)
}
响应
{
"predictions": [
{
"className": "Drawing", // 分类名称
"probability": 0.85 // 置信度(0 到 1)
},
{
"className": "Hentai",
"probability": 0.10
},
{
"className": "Neutral",
"probability": 0.03
},
{
"className": "Porn",
"probability": 0.01
},
{
"className": "Sexy",
"probability": 0.01
}
]
}
示例
使用 curl
测试 API:
curl -X POST -F "image=@/path/to/your/image.jpg" https://n.moci.uk/api/classify
注意事项
- 仅支持 JPEG、PNG、GIF 格式的图片文件。
- 图片大小不能超过 5MB。
- 返回的
predictions
包含 5 种类别及其置信度。 - 置信度范围从 0 到 1,值越高表示分类结果越可信。