rckflr-textembeddings

Package Information

Released: 6/6/2025
Downloads: 0 weekly / 0 monthly
Latest Version: 1.0.1
Author: rckflr

Documentation

n8n-nodes-rckflr-textembeddings

NPM version
NPM downloads

Nodo para n8n que genera embeddings de texto localmente usando Transformer.js

Seleccionar idioma / Select language / Selecionar idioma:


Español

Este paquete contiene un nodo personalizado para n8n que permite convertir texto a embeddings (vectores) utilizando Transformer.js localmente, sin depender de servicios externos o conexión a internet.

El nodo está diseñado para recibir texto directamente como entrada y generar embeddings eficientemente utilizando modelos ligeros.

Text Embeddings Node

Instalación

Instalación desde npm (recomendado)

Instala el paquete en tu instalación de n8n:

# Instalación global
npm install n8n-nodes-rckflr-textembeddings -g

# Instalación local (en tu instalación de n8n)
cd ~/.n8n
npm install n8n-nodes-rckflr-textembeddings

Instalación desde el código fuente

# Clonar el repositorio
git clone https://github.com/MauricioPerera/n8n-nodes-rckflr-TextEmbeddings.git

# Instalar dependencias
cd n8n-nodes-rckflr-TextEmbeddings
npm install

# Compilar el código
npm run build

# Crear enlace simbólico
npm link

# En tu instalación de n8n
cd ~/.n8n
npm link n8n-nodes-rckflr-textembeddings

Características

  • Entrada de texto directo: Ingresa el texto directamente en el nodo sin necesidad de nodos adicionales
  • Procesamiento local: Genera embeddings sin enviar datos a servicios externos
  • Rendimiento optimizado: Utiliza modelos ligeros y eficientes
  • Sin dependencia de internet: Funciona completamente offline una vez descargado el modelo
  • Modelos pre-entrenados: Incluye acceso a modelos de alta calidad como all-MiniLM-L6-v2
  • Normalización de vectores: Opción para normalizar los embeddings para cálculos de similitud
  • Metadatos: Opción para incluir metadatos sobre los embeddings generados

Uso

Una vez instalado, el nodo "Text Embeddings" estará disponible en la categoría "Transform" de n8n.

Parámetros

Parámetro Descripción
Text Input El texto a convertir en embeddings (entrada directa)
Model El modelo de embeddings a utilizar (all-MiniLM-L6-v2 recomendado)
Output Field El nombre del campo donde se almacenarán los embeddings generados
Normalize Embeddings Si se deben normalizar los embeddings (recomendado para cálculos de similitud)
Include Metadata Si se debe incluir metadatos sobre los embeddings generados

Ejemplo de uso

  1. Añade un nodo "Text Embeddings" a tu flujo de trabajo
  2. Ingresa el texto que deseas convertir a embeddings en el campo "Text Input"
  3. Selecciona el modelo (recomendado: all-MiniLM-L6-v2)
  4. Configura el campo de salida (por defecto: "embeddings")
  5. Activa la normalización si vas a realizar cálculos de similitud
  6. Ejecuta el flujo de trabajo

Ejemplo de salida

{
  "embeddings": [0.015511, -0.004481, 0.070717, ...],
  "embeddings_metadata": {
    "model": "Xenova/all-MiniLM-L6-v2",
    "dimensions": 384,
    "normalized": true,
    "text_length": 24,
    "generated_at": "2025-06-05T12:27:21.468Z"
  }
}

Casos de uso

  • Búsqueda semántica: Encuentra documentos similares basados en significado, no solo palabras clave
  • Clustering de textos: Agrupa textos similares para análisis y categorización
  • Sistemas de recomendación: Recomienda contenido similar basado en embeddings
  • Detección de duplicados: Identifica contenido similar o duplicado
  • Análisis de sentimiento avanzado: Mejora el análisis de sentimiento con representaciones vectoriales

Modelos disponibles

all-MiniLM-L6-v2 (Recomendado)

  • Dimensiones: 384
  • Tamaño: 22.7M parámetros
  • Rendimiento: Rápido, eficiente en memoria
  • Calidad: Buena para la mayoría de casos de uso

all-mpnet-base-v2

  • Dimensiones: 768
  • Tamaño: Mayor que all-MiniLM-L6-v2
  • Rendimiento: Más lento, mayor consumo de memoria
  • Calidad: Superior para tareas que requieren mayor precisión

Desarrollo

Si deseas contribuir al desarrollo de este nodo, sigue estos pasos:

  1. Clona el repositorio
  2. Instala las dependencias con npm install
  3. Realiza tus cambios
  4. Compila con npm run build
  5. Prueba el nodo en una instalación local de n8n

Licencia

MIT


English

This package contains a custom node for n8n that allows you to convert text to embeddings (vectors) using Transformer.js locally, without relying on external services or internet connection. The node is designed to prioritize performance using lightweight models that consume minimal resources.

The node is designed to receive text directly as input and efficiently generate embeddings using lightweight models.

Text Embeddings Node

Installation

Installation from npm (recommended)

Install the package in your n8n installation:

# Global installation
npm install n8n-nodes-rckflr-textembeddings -g

# Local installation (in your n8n installation)
cd ~/.n8n
npm install n8n-nodes-rckflr-textembeddings

Installation from source code

# Clone the repository
git clone https://github.com/MauricioPerera/n8n-nodes-rckflr-TextEmbeddings.git

# Install dependencies
cd n8n-nodes-rckflr-TextEmbeddings
npm install

# Build the code
npm run build

# Create symbolic link
npm link

# In your n8n installation
cd ~/.n8n
npm link n8n-nodes-rckflr-textembeddings

Features

  • Direct text input: Enter text directly into the node without needing additional nodes
  • Local processing: Generate embeddings without sending data to external services
  • Optimized performance: Uses lightweight, efficient models
  • No internet dependency: Works completely offline once the model is downloaded
  • Pre-trained models: Includes access to high-quality models like all-MiniLM-L6-v2
  • Vector normalization: Option to normalize embeddings for similarity calculations
  • Metadata: Option to include metadata about the generated embeddings

Usage

Once installed, the "Text Embeddings" node will be available in the "Transform" category of n8n.

Parameters

Parameter Description
Text Input The text to convert to embeddings (direct input)
Model The embedding model to use (all-MiniLM-L6-v2 recommended)
Output Field The field name where embeddings will be stored
Normalize Embeddings Whether to normalize the embeddings (recommended for similarity calculations)
Include Metadata Whether to include metadata about the embeddings

Usage Example

  1. Add a "Text Embeddings" node to your workflow
  2. Enter the text you want to convert to embeddings in the "Text Input" field
  3. Select the model (recommended: all-MiniLM-L6-v2)
  4. Configure the output field (default: "embeddings")
  5. Enable normalization if you'll be performing similarity calculations
  6. Run the workflow

Output Example

{
  "embeddings": [0.015511, -0.004481, 0.070717, ...],
  "embeddings_metadata": {
    "model": "Xenova/all-MiniLM-L6-v2",
    "dimensions": 384,
    "normalized": true,
    "text_length": 24,
    "generated_at": "2025-06-05T12:27:21.468Z"
  }
}

Use Cases

  • Semantic search: Find similar documents based on meaning, not just keywords
  • Text clustering: Group similar texts for analysis and categorization
  • Recommendation systems: Recommend similar content based on embeddings
  • Duplicate detection: Identify similar or duplicate content
  • Advanced sentiment analysis: Improve sentiment analysis with vector representations

Available Models

all-MiniLM-L6-v2 (Recommended)

  • Dimensions: 384
  • Size: 22.7M parameters
  • Performance: Fast, memory efficient
  • Quality: Good for most use cases

all-mpnet-base-v2

  • Dimensions: 768
  • Size: Larger than all-MiniLM-L6-v2
  • Performance: Slower, higher memory consumption
  • Quality: Superior for tasks requiring higher precision

Development

If you want to contribute to the development of this node, follow these steps:

  1. Clone the repository
  2. Install dependencies with npm install
  3. Make your changes
  4. Compile with npm run build
  5. Test the node in a local n8n installation

License

MIT


Português

Este pacote contém um nó personalizado para n8n que permite converter texto em embeddings (vetores) usando Transformer.js localmente, sem depender de serviços externos ou conexão com a internet.

O nó foi projetado para receber texto diretamente como entrada e gerar embeddings de forma eficiente usando modelos leves.

Text Embeddings Node

Instalação

Instalação via npm (recomendado)

Instale o pacote na sua instalação do n8n:

# Instalação global
npm install n8n-nodes-rckflr-textembeddings -g

# Instalação local (na sua instalação do n8n)
cd ~/.n8n
npm install n8n-nodes-rckflr-textembeddings

Instalação a partir do código fonte

# Clonar o repositório
git clone https://github.com/MauricioPerera/n8n-nodes-rckflr-TextEmbeddings.git

# Instalar dependências
cd n8n-nodes-rckflr-TextEmbeddings
npm install

# Compilar o código
npm run build

# Criar link simbólico
npm link

# Na sua instalação do n8n
cd ~/.n8n
npm link n8n-nodes-rckflr-textembeddings

Características

  • Entrada direta de texto: Insira o texto diretamente no nó sem necessidade de nós adicionais
  • Processamento local: Gere embeddings sem enviar dados para serviços externos
  • Desempenho otimizado: Utiliza modelos leves e eficientes
  • Sem dependência de internet: Funciona completamente offline após o download do modelo
  • Modelos pré-treinados: Inclui acesso a modelos de alta qualidade como all-MiniLM-L6-v2
  • Normalização de vetores: Opção para normalizar os embeddings para cálculos de similaridade
  • Metadados: Opção para incluir metadados sobre os embeddings gerados

Uso

Uma vez instalado, o nó "Text Embeddings" estará disponível na categoria "Transform" do n8n.

Parâmetros

Parâmetro Descrição
Text Input O texto a ser convertido em embeddings (entrada direta)
Model O modelo de embeddings a ser utilizado (all-MiniLM-L6-v2 recomendado)
Output Field O nome do campo onde os embeddings serão armazenados
Normalize Embeddings Se os embeddings devem ser normalizados (recomendado para cálculos de similaridade)
Include Metadata Se devem ser incluídos metadados sobre os embeddings

Exemplo de uso

  1. Adicione um nó "Text Embeddings" ao seu fluxo de trabalho
  2. Insira o texto que deseja converter em embeddings no campo "Text Input"
  3. Selecione o modelo (recomendado: all-MiniLM-L6-v2)
  4. Configure o campo de saída (padrão: "embeddings")
  5. Ative a normalização se for realizar cálculos de similaridade
  6. Execute o fluxo de trabalho

Exemplo de saída

{
  "embeddings": [0.015511, -0.004481, 0.070717, ...],
  "embeddings_metadata": {
    "model": "Xenova/all-MiniLM-L6-v2",
    "dimensions": 384,
    "normalized": true,
    "text_length": 24,
    "generated_at": "2025-06-05T12:27:21.468Z"
  }
}

Casos de uso

  • Busca semântica: Encontre documentos similares com base no significado, não apenas em palavras-chave
  • Agrupamento de textos: Agrupe textos similares para análise e categorização
  • Sistemas de recomendação: Recomende conteúdo similar com base em embeddings
  • Detecção de duplicados: Identifique conteúdo similar ou duplicado
  • Análise de sentimento avançada: Melhore a análise de sentimento com representações vetoriais

Modelos disponíveis

all-MiniLM-L6-v2 (Recomendado)

  • Dimensões: 384
  • Tamanho: 22.7M parâmetros
  • Desempenho: Rápido, eficiente em memória
  • Qualidade: Boa para a maioria dos casos de uso

all-mpnet-base-v2

  • Dimensões: 768
  • Tamanho: Maior que all-MiniLM-L6-v2
  • Desempenho: Mais lento, maior consumo de memória
  • Qualidade: Superior para tarefas que requerem maior precisão

Desenvolvimento

Se deseja contribuir para o desenvolvimento deste nó, siga estes passos:

  1. Clone o repositório
  2. Instale as dependências com npm install
  3. Faça suas alterações
  4. Compile com npm run build
  5. Teste o nó em uma instalação local do n8n

Licença

MIT

Discussion