Club Delphi  
    FTP   CCD     Buscar   Trucos   Trabajo   Foros

Retroceder   Foros Club Delphi > Principal > Varios
Registrarse FAQ Miembros Calendario Guía de estilo Temas de Hoy

Grupo de Teaming del ClubDelphi

Respuesta
 
Herramientas Buscar en Tema Desplegado
  #1  
Antiguo 08-03-2024
Avatar de pgranados
pgranados pgranados is offline
Miembro
 
Registrado: sep 2022
Ubicación: México
Posts: 264
Poder: 2
pgranados Va por buen camino
Cuales son los costos de ChatGPT 4?

Hola, tengo una aplicación y quiero implementar la IA de OpenAI, pero el tema de los costos me parece un poco extraño, al parecer entiendo es que el precio depende de la cantidad de caracteres que tenga la pregunta (request) y el tamaño de la respuesta (response)

alguien que tenga experiencia el api para empresas? saludos.
Responder Con Cita
  #2  
Antiguo 08-03-2024
Avatar de dec
dec dec is offline
Moderador
 
Registrado: dic 2004
Ubicación: Alcobendas, Madrid, España
Posts: 13.107
Poder: 34
dec Tiene un aura espectaculardec Tiene un aura espectacular
Hola a todos,

En efecto, cobran por uso. También existe un servicio de suscripción, pero, creo que no está relacionado con el uso del propio API, donde, cobran dependiendo del uso que se le dé al mismo. Aquí está explicado, vaya, lo que ellos explican.
__________________
David Esperalta
www.decsoftutils.com
Responder Con Cita
  #3  
Antiguo 08-03-2024
Avatar de pgranados
pgranados pgranados is offline
Miembro
 
Registrado: sep 2022
Ubicación: México
Posts: 264
Poder: 2
pgranados Va por buen camino
Hola Dec,

Lo que no entiendo es lo de Input y Output, porque input vale 10USD 1M de tokens y output 30USD 1M de tokens?
Responder Con Cita
  #4  
Antiguo 09-03-2024
Avatar de dec
dec dec is offline
Moderador
 
Registrado: dic 2004
Ubicación: Alcobendas, Madrid, España
Posts: 13.107
Poder: 34
dec Tiene un aura espectaculardec Tiene un aura espectacular
Hola a todos,

Cita:
Empezado por pgranados Ver Mensaje
Hola Dec,

Lo que no entiendo es lo de Input y Output, porque input vale 10USD 1M de tokens y output 30USD 1M de tokens?
Pues, honestamente, no sabría decir... es claro que alguna razón debe haber: acaso el coste de procesamiento de una cosa y otra difieran, y, de ahí su diferente precio. Supongo que no quedaría más que hacer pruebas, para hacerse una idea del coste aproximado del asunto: en tu misma cuenta de Open AI podrás ir viendo cuánto consumes a diario.

A ver si algún otro compañero con más experiencia puede orientarnos de otro modo. A mí se me ocurre, que, dependiendo del programa, puede ser el propio usuario quien use su propia "API key", de modo que los costes los asumirá dicho usuario: tu programa puede proporcionar la funcionalidad, la comunicación con el API, pero, no el propio "API key".
__________________
David Esperalta
www.decsoftutils.com

Última edición por dec fecha: 09-03-2024 a las 09:26:54.
Responder Con Cita
  #5  
Antiguo 09-03-2024
Avatar de mamcx
mamcx mamcx is offline
Moderador
 
Registrado: sep 2004
Ubicación: Medellín - Colombia
Posts: 3.911
Poder: 25
mamcx Tiene un aura espectacularmamcx Tiene un aura espectacularmamcx Tiene un aura espectacular
La experiencia general con todos los productos tipo nube:


- En bajo volumen es "barato"
- En medio, quizás
- En alto, astronómico (Hace un tiempo se informo que ChatGPT les cuesta US 700.000/dia, así que con algo tienen que recuperar costos)


En mi opinion:

- Asegurate que realmente "necesitas" este tipo de solución y que no es que *crees* cuando hay opciones mas rentables y simples (ie: Hay mucha "IA" que realmente es puro sql y matemática simple). Es como cuando la gente bota un infierno de plata con soluciones nube/"escalables" dizque porque tiene una insignificante BD de 10 TB y "creen" que eso no se puede en un simple equipo: Spoiler: Si se puede.
- Si no tienes muchos clientes/concurrencia por lo general estos bichos son rentables de usar al inicio
- Tienes que tener algo de soporte económico, si estas quebrado piensa en cosas mas razonables que hagan tu negocio rentable!
- Si metes CUALQUIER producto de costo variable e impredecible ASEGURATE de poner "back pressure" para evitar que por un error termines pagando miles de dólares por usar esto unos minutos.

---

Normalmente es mas rentable usar el software dentro de tu propia infraestructura "nube/local", pero correr LLM en la nube hoy es muy costoso, usando mi proveedor que sale mejor que amazon o google:

https://www.vultr.com/pricing/#cloud-gpu


---


La otra opción es usar tu propio hardware local, pero estamos hablando de quipos que son tan o mas costosos que correr crypto:

https://www.hardware-corner.net/guid...lama-ai-model/

Osea necesitas mínimo un equivalente de Mac/M3 + 32 GB RAM + 16 GB GPU. Lo que entiendo es que un equipo maso es> US 4000 pa que realmente aguante, y eso con un nivel de concurrencia muy bajo.

La otra es armar un cluster, pero estamos hablando que estos juguetes son costosos aun.

Otra opcion es jugando con una combinacion de nube/local donde haces el "entrenamiento" (que es lo que mas cuesta) y luego pasar a un nube/equipo de ejecucion para solo responder se puede lograr algo viable, pero no es tan simple de hacer en un solo dia...

P.D: Este articulo ayuda a entender lo que es "tokens". Este el resultado de la IA, ie, un token es la unidad de inferencia.

Por ejemplo el articulo señala que usando :

Cita:
DDR4-3600 + Ryzen 5 3600 = ~ 7 tokens/second
__________________
El malabarista.

Última edición por mamcx fecha: 09-03-2024 a las 19:17:30.
Responder Con Cita
  #6  
Antiguo Hace 2 Semanas
Parveen Parveen is offline
Registrado
 
Registrado: abr 2023
Posts: 3
Poder: 0
Parveen Va por buen camino
Cita:
Empezado por pgranados Ver Mensaje
Hola Dec,

Lo que no entiendo es lo de Input y Output, porque input vale 10USD 1M de tokens y output 30USD 1M de tokens?
When the AI generates text (output), it needs to be creative and consider a vast array of possibilities. This could involve composing different phrasings, structures, or even generating code or scripts. All this complexity requires more computational power from OpenAI's infrastructure, resulting in a higher cost per token for the response. But processing your input prompt (question) is a simpler task. The AI just needs to understand the context and meaning you provide. This requires less computational power, leading to a lower cost per token.

Large language models like OpenAI's use an "attention mechanism" during response generation. This mechanism allows the model to focus on specific parts of the input prompt (tokens) while generating the response.
Here's where the cost difference comes in: to decide the next word in the response, the model needs to constantly refer back to the input tokens and the previously generated response tokens. This ongoing analysis throughout the generation process contributes to the higher cost of output tokens compared to input tokens.
Responder Con Cita
Respuesta



Normas de Publicación
no Puedes crear nuevos temas
no Puedes responder a temas
no Puedes adjuntar archivos
no Puedes editar tus mensajes

El código vB está habilitado
Las caritas están habilitado
Código [IMG] está habilitado
Código HTML está deshabilitado
Saltar a Foro

Temas Similares
Tema Autor Foro Respuestas Último mensaje
Ejemplo de uso de ChatGPT en Delphi 7 jars Varios 4 09-05-2023 02:25:33
ChatGPT IA kurono La Taberna 16 18-01-2023 09:41:27
Delphi, Indy, SSL Cuales versiones trabajan bien con cuales ?. Como se configuran ? rolandoj Internet 12 23-03-2014 17:07:41
Costos desarrollo sistema antigrondona Varios 15 11-01-2010 17:53:27
Problema agrupando para crear sumario de costos joal SQL 1 20-07-2006 00:14:25


La franja horaria es GMT +2. Ahora son las 15:43:45.


Powered by vBulletin® Version 3.6.8
Copyright ©2000 - 2024, Jelsoft Enterprises Ltd.
Traducción al castellano por el equipo de moderadores del Club Delphi
Copyright 1996-2007 Club Delphi