TaskingAI é uma plataforma BaaS (Backend as a Service) para o Desenvolvimento e Implantação de Agentes baseados em LLM. Ela unifica a integração de centenas de modelos LLM e fornece uma interface de usuário intuitiva para gerenciar os módulos funcionais de sua aplicação LLM, incluindo ferramentas, sistemas RAG, assistentes, histórico de conversas e mais.
- Plataforma LLM Tudo-em-Um: Acesse centenas de modelos de IA com APIs unificadas.
- Ricas Melhoria: Melhore o desempenho dos agentes LLM com centenas de ferramentas integradas personalizáveis e um sistema avançado de Geração Aumentada por Recuperação (RAG).
- Fluxo de Trabalho Inspirado em BaaS: Separe a lógica de IA (lado do servidor) do desenvolvimento de produto (lado do cliente), oferecendo um caminho claro desde a criação de protótipos baseada em console até soluções escaláveis usando APIs RESTful e SDKs para clientes.
- Implantação com um Clique: Implemente seus agentes de IA com um único clique na fase de produção, e escale-os com facilidade. Deixe que TaskingAI cuide do resto.
- Eficiência Assíncrona: Utilize os recursos assíncronos do Python FastAPI para computação concorrente de alto desempenho, melhorando a capacidade de resposta e a escalabilidade das aplicações.
- Console de UI Intuitivo: Simplifica a gestão de projetos e permite testes de fluxo de trabalho no console.
Modelos: TaskingAI se conecta a centenas de LLMs de vários provedores, incluindo OpenAI, Anthropic e mais. Também permitimos que os usuários integrem modelos locais através do Ollama, LM Studio e Local AI.
Plugins: TaskingAI suporta uma ampla gama de plugins integrados para potencializar seus agentes de IA, incluindo busca no Google, leitor de sites, recuperação do mercado de ações e mais. Os usuários também podem criar ferramentas personalizadas para atender às suas necessidades específicas.
LangChain é um framework de ferramentas para desenvolvimento de aplicação LLM, mas enfrenta limitações práticas:
- Sem Estado: Depende de serviços do cliente ou externos para gerenciamento de dados.
- Desafios de Escalabilidade: A ausência de estado impacta o manuseio consistente de dados entre sessões.
- Dependências Externas: Depende de recursos externos como SDKs de modelos e armazenamento vetorial.
API de Assistente da OpenAI se destaca na entrega de funcionalidades semelhantes ao GPT, mas tem suas próprias limitações:
- Funcionalidades Vinculadas: Integrações como ferramentas e recuperações estão vinculadas a cada assistente, inadequadas para aplicações multi-inquilinos.
- Limitações Proprietárias: Restrito a modelos OpenAI, inadequado para necessidades diversificadas.
- Limites de Personalização: Os usuários não podem personalizar a configuração do agente, como sistema de memória e recuperação.
- Suporta usos com e sem estado: Seja para acompanhar e gerenciar históricos de mensagens e sessões de conversação do agente, ou simplesmente fazer solicitações de conclusão de chat sem estado, TaskingAI cobre os dois casos.
- Gestão Modular Desacoplada: Separou a gestão de ferramentas, sistemas RAG, modelos de linguagem do agente. E permite a livre combinação desses módulos para construir um poderoso agente de IA.
- Suporte Multi-inquilino: TaskingAI suporta implantação rápida após o desenvolvimento e pode ser usado em cenários multi-inquilinos. Não se preocupe com os serviços em nuvem, concentre-se apenas no desenvolvimento do agente de IA.
- API Unificada: TaskingAI fornece APIs unificadas para todos os módulos, incluindo ferramentas, sistemas RAG, modelos de linguagem e mais. Super fácil de gerenciar e mudar as configurações do agente de IA.
- Demonstrações Interativas de Aplicações
- Agentes de IA para Produtividade Empresarial
- Aplicações Nativas Multi-inquilino para Negócios
Por favor, deixe-nos uma ESTRELA GRATUITA ?? se achar útil ??
Uma maneira simples de iniciar a edição comunitária auto-hospedada do TaskingAI é através do Docker.
- Docker e Docker Compose instalados na sua máquina.
- Git instalado para clonar o repositório.
- Ambiente Python (acima do Python 3.8) para executar o SDK do cliente.
Primeiro, clone o repositório TaskingAI (edição comunitária) do GitHub.
git clone https://github.com/taskingai/taskingai.git
cd taskingai
Dentro do repositório clonado, vá para o diretório docker e inicie os serviços usando Docker Compose.
cd docker
-
Copie
.env.example
para.env
:cp .env.example .env
-
Edite o arquivo
.env
: Abra o arquivo.env
no seu editor de texto preferido e atualize as configurações necessárias. Certifique-se de que todas as variáveis de ambiente necessárias estejam configuradas corretamente. -
Inicie o Docker Compose: Execute o seguinte comando para iniciar todos os serviços:
docker-compose -p taskingai --env-file .env up -d
Uma vez que o serviço esteja ativo, acesse o console do TaskingAI pelo seu navegador utilizando a URL http://localhost:8080. O nome de usuário e senha padrões são admin
e TaskingAI321
.
Se você já instalou TaskingAI com uma versão anterior e deseja atualizar para a versão mais recente, primeiro atualize o repositório.
git pull origin master
Depois pare o serviço docker atual, atualize para a versão mais recente puxando a imagem mais nova e finalmente reinicie o serviço.
cd docker
docker-compose -p taskingai down
docker-compose -p taskingai pull
docker-compose -p taskingai --env-file .env up -d
Não se preocupe com a perda de dados; seus dados serão automaticamente migrados para o esquema da versão mais recente, se necessário.
Clique na imagem acima para ver o vídeo de demonstração do Console do TaskingAI.
Uma vez que o console esteja ativo, você pode interagir programaticamente com o servidor TaskingAI usando o SDK cliente do TaskingAI.
Certifique-se de ter Python 3.8 ou superior instalado e configurar um ambiente virtual (opcional, mas recomendado).
Instale o SDK cliente do TaskingAI usando pip.
pip install taskingai
Aqui está um exemplo de código cliente:
import taskingai
taskingai.init(api_key='YOUR_API_KEY', host='http://localhost:8080')
# Create a new assistant
assistant = taskingai.assistant.create_assistant(
model_id="YOUR_MODEL_ID",
memory="naive",
)
# Create a new chat
chat = taskingai.assistant.create_chat(
assistant_id=assistant.assistant_id,
)
# Send a user message
taskingai.assistant.create_message(
assistant_id=assistant.assistant_id,
chat_id=chat.chat_id,
text="Hello!",
)
# generate assistant response
assistant_message = taskingai.assistant.generate_message(
assistant_id=assistant.assistant_id,
chat_id=chat.chat_id,
)
print(assistant_message)
Note que YOUR_API_KEY
e YOUR_MODEL_ID
devem ser substituídos pela chave API real e ID do modelo de conclusão de chat que você criou no console.
Você pode aprender mais na documentação.
Por favor, consulte nossas diretrizes de contribuição para saber como contribuir para o projeto.
Além disso, estamos entusiasmados em anunciar que o TaskingAI agora tem uma comunidade oficial no Discord! 🎊
Junte-se ao nosso servidor do Discord para:
• 💬 Participar de discussões sobre o TaskingAI, compartilhar ideias e fornecer feedback.
• 📚 Obter suporte, dicas e melhores práticas de outros usuários e nossa equipe.
• 🚀 Manter-se atualizado sobre as últimas notícias, atualizações e lançamentos de recursos.
• 🤝 Conectar-se com indivíduos com interesses similares apaixonados por IA e automação de tarefas.
TaskingAI é publicado sob uma Licença Open Source Específica do TaskingAI. Ao contribuir para este projeto, você concorda em seguir seus termos.
Para suporte, por favor consulte nossa documentação ou entre em contato conosco em [email protected].