A IA Generativa está revolucionando diversas indústrias e redefinindo o futuro do trabalho para funções criativas e baseadas em conhecimento. O PromptxAI está em uma missão para ajudar empresas e indivíduos a aproveitar o poder da IA Generativa para acelerar seu crescimento e inovação. Estamos construindo um Playbook de IA Generativa para ajudá-lo a começar com a IA Generativa. Você pode acessar o Playbook de IA Generativa neste site de várias maneiras, incluindo aprender técnicas criativas de engenharia de prompts para aproveitar ao máximo aplicações de IA Generativa como ChatGPT, Midjourney, DALL-E, Stable Diffusion, D-ID e mais. Você também pode aprender sobre as tendências que impactam o futuro do trabalho e como aproveitá-las como ideias para seu próprio negócio ou carreira. Também estamos compartilhando notebooks aceleradores e bibliotecas de código para ajudá-lo a começar com a IA Generativa.
O Playbook com exemplos populares oferece uma versão do playbook com os exemplos mais populares. Já o Playbook estendido com um framework genérico expande o cenário de IA Generativa com Agentes, Ferramentas e Conteúdo. Este playbook utiliza o LangChain como um framework genérico para trabalhar com LLMs (Large Language Models).
Prompts: Inclui gerenciamento de prompts, otimização de prompts e serialização de prompts. Modelos: Inclui LLMs e modelos de transformação de aprendizado profundo pré-treinados. Conteúdo: Inclui conteúdo que pode ser usado para aprimorar um prompt com aprendizado de poucos exemplos, conteúdo que pode ajustar um LLM, ou conteúdo que pode ser aprimorado ou gerado por conclusões de LLM. Ferramentas: Modelos de linguagem são frequentemente mais poderosos ao interagir com outras fontes de conhecimento ou computação. Isso pode incluir REPLs Python, embeddings, motores de busca e mais. Cadeias: Cadeias vão além de uma única chamada LLM, e são sequências de chamadas (seja para um LLM ou uma utilidade diferente). Agentes: Agentes envolvem um LLM tomando decisões sobre quais Ações tomar, tomando essa Ação, vendo uma Observação, e repetindo isso até terminar. Memória: Memória é o conceito de persistir estado entre chamadas de uma cadeia/agente. Infraestrutura: Inclui hubs como Hugging Face, GitHub e Kaggle. Também inclui provedores de nuvem como AWS, GCP e Azure. Primeiros movimentos como OpenAI e Stability AI são provedores hospedados de LLMs. Outra categoria emergente são orquestradores multi-nuvem especializados para treinamento, otimização e inferência de LLM.
Geração de Conteúdo: Você pode explorar o playbook genérico neste site. Vamos começar com a parte mais à direita do playbook, Conteúdo. Um exemplo de sequência de prompt-modelo-conclusão gerando conteúdo no formato de um diagrama é demonstrado na seção Gerando Diagramas do Conhecimento Mundial. Você também pode explorar a seção Automação de Autoria de Blog de Baixo Código para aprender sobre como usar a API do PromptxAI para automatizar a autoria de blogs. O post sobre Análise e Visualização de Linguagem Natural demonstra gráficos e tabelas. A entrevista com o CEO da OpenAI, Sam Altman, sobre IA para a Próxima Era demonstra a criação de mapas de tópicos e resumos como conteúdo. Você pode gerar conjuntos de dados como o Historical Fact Question Answer faz para civilizações antigas.
Ingestão de Conteúdo: Enquanto LLMs são treinados em grandes corpora de dados, o processo de treinamento é caro e demorado e requer muita computação. Isso significa que LLMs não estão cientes dos últimos desenvolvimentos em um domínio. Então, você não pode usá-los para responder perguntas baseadas nesse conteúdo não visto. É aqui que a ingestão de conteúdo entra. Você pode aplicar as capacidades de LLMs para entender e analisar conteúdo em um domínio mesmo que eles não o tenham visto antes. O limite, porém, é o número de tokens que um LLM pode tomar como uma sequência de conclusão de prompt. Um exemplo de ingestão de conteúdo é demonstrado pelo notebook Gerador de Cartão de Modelo. A API do PromptxAI pode ser usada para gerar cartões de modelo para qualquer modelo onde um site público explica detalhes relevantes sobre o modelo. Criamos cartões de modelo sob o menu Modelos para demonstrar essa capacidade.
Tendências Impactando o Futuro do Trabalho: Há várias tendências impactando o futuro do trabalho. Estamos preocupados com o impacto no trabalhador do conhecimento e na comunidade de startups. Aqui estão algumas tendências que acreditamos estar no coração da disrupção no local de trabalho como explicado pelo modelo Transformer ChatGPT (exemplo líder da tendência 1) gerando conclusões ou respostas baseadas em prompts ou entradas que fornecemos (exemplo da tendência 2). Cunhamos um nome compartilhado para GitHub, Kaggle e Huggingface como tendência 3, chamando-os de Hubs de Criadores.
Tendência 1: IA Generativa ChatGPT, DALL-E, Midjourney, Stable Diffusion, D-ID são aplicações populares de IA Generativa. Enquanto o ChatGPT gera respostas semelhantes às humanas como um chatbot, DALL-E, Midjourney e Stable Diffusion podem gerar imagens a partir de prompts de texto. D-ID gera vídeos. Nos bastidores, essas aplicações usam modelos Transformer como GPT-3, também conhecidos como Large Language Models.
Tendência 2: Engenharia de Prompts A Engenharia de Prompts é atualmente o assunto do momento nas redes sociais. É interessante como Sam Altman aborda o futuro da Engenharia de Prompts na entrevista (25:09) onde ele acha que evoluirá para as pessoas apenas interagindo com AGI de uma maneira natural. No entanto, Reid Hoffman faz um contraponto de como um artista pode articular prompts muito melhores e obter mais dos Modelos Transformer do que um usuário casual.
Tendência 3: Hubs de Criadores Para entender a lacuna entre empreendedores bem-sucedidos ou equipes de startups e o típico trabalhador do conhecimento em uma empresa estabelecida, pode-se comparar suas ferramentas, hábitos de trabalho e habilidades. Alternativamente, pode-se olhar para o ritmo rápido dos avanços feitos pelas comunidades de ciência de dados de código aberto e cidadã versus os dos líderes de mercado no mesmo espaço. As aquisições do Kaggle pelo Google em 2017 (termos financeiros não divulgados), GitHub pela Microsoft em 2018 (por $7,5 bilhões), Streamlit pela Snowflake em 2021 (por $800 milhões), a avaliação de $2 bilhões do Huggingface, e a avaliação projetada de $20 bilhões da OpenAI no final de 2022 demonstram o impacto desses novos criadores de mercado no futuro do trabalho e o crescimento de uma comunidade de trabalhadores do conhecimento aprendendo novas habilidades. O Hugging Face oferece Streamlit Spaces para hospedar aplicativos construídos no Streamlit. O modelo GPT-2 da OpenAI está disponível no repositório de Modelos do Hugging Face (em fev'23 hospedando mais de 133K modelos pré-treinados).