Configurando o Banco de Dados e Gerenciando Migrações com Alembic
Objetivos dessa aula:
- Introdução ao SQLAlchemy e Alembic
- Instalando SQLAlchemy e Alembic
- Configurando e criando o banco de dados
- Criando e localizando tabelas utilizando SQLAlchemy
- Testando a criação de tabelas
- Eventos do SQLAlchemy
- Gerenciando migrações do banco de dados com Alembic
Caso prefira ver a aula em vídeo
Esse aula ainda não está disponível em formato de vídeo, somente em texto ou live!
Aula Slides Código Quiz Exercícios
Com os endpoints da nossa API já estabelecidos, estamos, por ora, utilizando um banco de dados simulado, armazenando uma lista em memória. Nesta aula, iniciaremos o processo de configuração do nosso banco de dados real. Nossa agenda inclui a instalação do SQLAlchemy, a definição do modelo de usuários, e a execução da primeira migração com o Alembic para um banco de dados evolutivo. Além disso, exploraremos como desacoplar as configurações do banco de dados da aplicação, seguindo os princípios dos 12 fatores.
Antes de prosseguirmos com a instalação e a configuração, é crucial entender alguns conceitos fundamentais sobre ORMs (Object-Relational Mapping).
O que é um ORM e por que usamos um?
ORM significa Mapeamento Objeto-Relacional. É uma técnica de programação que vincula (ou mapeia) objetos a registros de banco de dados. Em outras palavras, um ORM permite que você interaja com seu banco de dados, como se você estivesse trabalhando com objetos Python.
O SQLAlchemy é um exemplo de ORM. Ele permite que você trabalhe com bancos de dados SQL de maneira mais natural aos programadores Python. Em vez de escrever consultas SQL cruas, você pode usar métodos e atributos Python para manipular seus registros de banco de dados.
Mas por que usaríamos um ORM? Aqui estão algumas razões:
-
Abstração de banco de dados: ORMs permitem que você mude de um tipo de banco de dados para outro com poucas alterações no código.
-
Segurança: ORMs lidam geralmente com escapagem de consultas e para prevenir injeções SQL, um tipo comum de vulnerabilidade de segurança.
-
Eficiência no desenvolvimento: ORMs podem gerar automaticamente esquemas, realizar migrações e outras tarefas que seriam demoradas para fazer manualmente.
Configurações de ambiente e os 12 fatores
Uma boa prática no desenvolvimento de aplicações é separar as configurações do código. Configurações, como credenciais de banco de dados, são propensas a mudanças entre ambientes diferentes (como desenvolvimento, teste e produção). Misturá-las com o código pode tornar o processo de mudança entre esses ambientes complicado e propenso a erros.
Caso queira saber mais sobre 12 fatores
Temos uma live focada nesse assunto com a participação especial do Bruno Rocha
Além disso, expor credenciais de banco de dados e outras informações sensíveis no código-fonte é uma prática de segurança ruim. Se esse código fosse comprometido, essas informações poderiam ser usadas para acessar e manipular seus recursos.
Por isso, usaremos o pydantic-settings
para gerenciar nossas configurações de ambiente. A biblioteca permite que você defina configurações em arquivos separados ou variáveis de ambiente e acesse-as de uma maneira estruturada e segura em seu código.
Isso está alinhado com a metodologia dos 12 fatores, um conjunto de melhores práticas para desenvolvimento de aplicações modernas. O terceiro fator, "Config", afirma que as configurações que variam entre os ambientes devem ser armazenadas no ambiente e não no código.
Agora que entendemos melhor esses conceitos, começaremos instalando as bibliotecas que iremos usar. O primeiro passo é instalar o SQLAlchemy, um ORM que nos permite trabalhar com bancos de dados SQL de maneira Pythonica. Além disso, o Alembic, que é uma ferramenta de migração de banco de dados, funciona muito bem com o SQLAlchemy e nos ajudará a gerenciar as alterações do esquema do nosso banco de dados.
Além disso, para evitar a escrita de configurações do banco de dados diretamente no código-fonte, usaremos o pydantic-settings
. Este pacote nos permite gerenciar as configurações do nosso aplicativo de uma maneira mais segura e estruturada.
Agora estamos prontos para mergulhar na configuração do nosso banco de dados! Vamos em frente.
O básico sobre SQLAlchemy
SQLAlchemy é uma biblioteca Python versátil, concebida para intermediar a interação entre Python e bancos de dados relacionais, como MySQL, PostgreSQL e SQLite. A biblioteca é constituída por duas partes principais: o Core e o ORM (Object Relational Mapper).
-
Core: O Core do SQLAlchemy disponibiliza uma interface SQL abstrata, que possibilita a manipulação de bancos de dados relacionais de maneira segura, alinhada com as convenções do Python. Através do Core, é possível construir, analisar e executar instruções SQL, além de conectar-se a diversos tipos de bancos de dados utilizando a mesma API.
-
ORM: ORM, ou Mapeamento Objeto-Relacional, é uma técnica que facilita a comunicação entre o código orientado a objetos e bancos de dados relacionais. Com o ORM do SQLAlchemy, os desenvolvedores podem interagir com o banco de dados utilizando classes e objetos Python, eliminando a necessidade de escrever instruções SQL diretamente.
Caso nunca tenha trabalhado com SQLAlchemy
Temos uma live de Python cobrindo as mudanças e o básico sobre o SQLAlchemy na versão 2+:
Além do Core e do ORM, o SQLAlchemy conta com outros componentes cruciais que serão foco desta aula, a Engine e a Session:
Engine
A 'Engine' do SQLAlchemy é o ponto de contato com o banco de dados, estabelecendo e gerenciando as conexões. Ela é instanciada através da função create_engine()
, que recebe as credenciais do banco de dados, o endereço de conexão (URI) e configura o pool de conexões.
Session
Quanto à persistência de dados e consultas ao banco de dados utilizando o ORM, a Session é a principal interface. Ela atua como um intermediário entre o aplicativo Python e o banco de dados, mediada pela Engine. A Session é encarregada de todas as transações, fornecendo uma API para conduzi-las.
Agora que conhecemos a Engine e a Session, vamos explorar a definição de modelos de dados.
Definindo os Modelos de Dados com SQLAlchemy
Os modelos de dados definem a estrutura de como os dados serão armazenados no banco de dados. No ORM do SQLAlchemy, esses modelos são definidos como classes Python que podem ser herdados ou registradas (isso depende de como você usa o ORM). Vamos usar o registrador de tabelas, que já faz a conversão automática das classes em dataclasses
Cada classe que é registrada pelo objeto registry
é automaticamente mapeada para uma tabela no banco de dados. Adicionalmente, a classe base inclui um objeto de metadados que é uma coleção de todas as tabelas declaradas. Este objeto é utilizado para gerenciar operações como criação, modificação e exclusão de tabelas.
Agora definiremos nosso modelo User
. No diretório fast_zero
, crie um novo arquivo chamado models.py
e incluiremos o seguinte código no arquivo:
fast_zero/models.py | |
---|---|
Aqui, Mapped
refere-se a um atributo Python que é associado (ou mapeado) a uma coluna específica em uma tabela de banco de dados. Por exemplo, Mapped[int]
indica que este atributo é um inteiro que será mapeado para uma coluna correspondente em uma tabela de banco de dados. Da mesma forma, Mapped[str]
se referiria a um atributo de string que seria mapeado para uma coluna de string correspondente. Esta abordagem permite ao SQLAlchemy realizar a conversão entre os tipos de dados Python e os tipos de dados do banco de dados, além de oferecer uma interface Pythonica para a interação entre eles.
Em especial, devemos nos atentar com o campo __tablename__
. Ele é referente ao nome que a tabela terá no banco de dados. Como geralmente um objeto no python representa somente uma entidade, usarei 'users'
no plural para representar a tabela.
O uso do modelo
Se quisermos usar esse objeto, ela se comporta como uma dataclass tradicional. Podendo ser instanciada da forma tradicional:
eduardo = User(
id=1,
username='dunossauro',
password='senha123',
email='duno@ssauro.com',
created_at=datetime.now()
)
Por padrão, todos os atributos precisam ser especificados. O que pode não ser muito interessante, pois alguns dados devem ser preenchidos pelo banco de dados. Como o identificador da linha no banco ou a hora em que o registro foi criado.
Para isso, precisamos adicionar mais informações ao modelo.
Configurações de colunas
Quando definimos tabelas no banco de dados, as colunas podem apresentar propriedades específicas. Por exemplo:
- Um valor que não deve se repetir em outros registros (
unique
) - Valores padrões para quando não forem passados (
default
) - Identificadores para os registros (
primary_key
)
Para esses casos, o SQLAlchemy conta com a função mapped_column
. Dentro dela, você pode definir diversas propriedades.
Para o nosso caso, gostaria que email
e username
não se repetissem na base de dados e que as colunas id
e created_at
tivessem o valor definido pelo próprio banco de dados, quando o registro fosse criado.
Para isso, vamos aplicar alguns parâmetros nas colunas usando mapped_column
:
init=False
diz que, quando o objeto for instanciado, esse parâmetro não deve ser passado.primary_key=True
diz que o campoid
é a chave primária dessa tabela.unique=True
diz que esse campo não deve se repetir na tabela. Por exemplo, se tivermos um username "dunossauro", não podemos ter outro com o mesmo valor.server_default=func.now()
diz que, quando a classe for instanciada, o resultado defunc.now()
será o valor atribuído a esse atributo. No caso, a data e hora em que ele foi instanciado.
Desta forma, unimos tanto o uso que queremos ter no python, quanto a configuração esperada da tabela no banco de dados. Os parâmetros de mapeamento dizem:
primary_key
: diz que o campo será a chave primária da tabelaunique
: diz que o campo só pode ter um valor único em toda a tabela. Não podemos ter umusername
repetido no banco, por exemplo.server_default
: executa uma função no momento em que o objeto for instanciado.
O campo init
não tem uma relação direta com o banco de dados, mas sim com a forma em que vamos usar o objeto do modelo no código. Ele diz que os atributos marcados com init=false
não devem ser passados no momento em que User
for instanciado. Por exemplo:
eduardo = User(
username='dunossauro', password='senha123', email='duno@ssauro.com',
)
Por não passarmos estes parâmetros para User
, o SQLAlchemy se encarregará de atribuir os valores a eles de forma automática.
O campo created_at
será preenchido pelo resultado da função passada em server_default
. O campo id
, por contar com primary_key=True
, será autopreenchido com o id correspondente quando for armazenado no banco de dados.
Existem diversas opções nessa função. Caso queira ver mais possibilidades de mapeamento, aqui está a referencia para mais campos
Testando as Tabelas
Antes de prosseguirmos, uma boa prática seria criar um teste para validar se toda a estrutura do banco de dados funciona. Criaremos um arquivo para validar isso: test_db.py
.
A partir daqui, você pode prosseguir com a estruturação do conteúdo desse arquivo para definir os testes necessários para validar o seu modelo de usuário e sua interação com o banco de dados.
Antes de Escrever os Testes
A essa altura, se estivéssemos buscando apenas cobertura, poderíamos simplesmente testar utilizando o modelo, e isso seria suficiente. No entanto, queremos verificar se toda a nossa interação com o banco de dados ocorrerá com sucesso. Isso inclui saber se os tipos de dados na tabela foram mapeados corretamente, se é possível interagir com o banco de dados, se o ORM está estruturado adequadamente com a classe base. Precisamos garantir que todo esse esquema funcione.
graph
A[Aplicativo Python] -- utiliza --> B[SQLAlchemy ORM]
B -- fornece --> D[Session]
D -- eventos --> D
D -- interage com --> C[Modelos]
C -- eventos --> C
C -- mapeados para --> G[Tabelas no Banco de Dados]
D -- depende de --> E[Engine]
E -- conecta-se com --> F[Banco de Dados]
C -- associa-se a --> H[Metadata]
H -- mantém informações de --> G[Tabelas no Banco de Dados]
Neste diagrama, vemos a relação completa entre o aplicativo Python e o banco de dados. A conexão é estabelecida através do SQLAlchemy ORM, que fornece uma Session para interagir com os Modelos. Esses modelos são mapeados para as tabelas no banco de dados, enquanto a Engine se conecta com o banco de dados e depende de Metadata para manter as informações das tabelas.
Portanto, criaremos uma fixture para podermos usar todo esse esquema sempre que necessário.
Criando uma Fixture para interações com o Banco de Dados
Para testar o banco, temos que fazer diversos passos, e isso pode tornar nosso teste bastante grande. Uma fixture pode ajudar a isolar toda essa configuração do banco de dados fora do teste. Assim, evitamos repetir o mesmo código em todos os testes e ainda garantimos que cada teste tenha sua própria versão limpa do banco de dados.
Criaremos uma fixture para a conexão com o banco de dados chamada session
:
import pytest
from fastapi.testclient import TestClient
from sqlalchemy import create_engine
from sqlalchemy.orm import Session
from fast_zero.app import app
from fast_zero.models import table_registry
@pytest.fixture
def client():
return TestClient(app)
@pytest.fixture
def session():
engine = create_engine('sqlite:///:memory:')#(1)!
table_registry.metadata.create_all(engine)#(2)!
with Session(engine) as session:#(3)!
yield session#(4)!
table_registry.metadata.drop_all(engine)#(5)!
Aqui, estamos utilizando o SQLite como o banco de dados em memória para os testes. Essa é uma prática comum em testes unitários, pois a utilização de um banco de dados em memória é mais rápida do que um banco de dados persistido em disco. Com o SQLite em memória, podemos criar e destruir bancos de dados facilmente, o que é útil para isolar os testes e garantir que os dados de um teste não afetem outros testes. Além disso, não precisamos nos preocupar com a limpeza dos dados após a execução dos testes, já que o banco de dados em memória é descartado quando o programa é encerrado.
O que cada linha da fixture faz?
-
create_engine('sqlite:///:memory:')
: cria um mecanismo de banco de dados SQLite em memória usando SQLAlchemy. Este mecanismo será usado para criar uma sessão de banco de dados para nossos testes. -
table_registry.metadata.create_all(engine)
: cria todas as tabelas no banco de dados de teste antes de cada teste que usa a fixturesession
. -
Session(engine)
: cria uma sessãoSession
para que os testes possam se comunicar com o banco de dadosviaengine
. -
yield session
: fornece uma instância de Session que será injetada em cada teste que solicita a fixturesession
. Essa sessão será usada para interagir com o banco de dados de teste. -
table_registry.metadata.drop_all(engine)
: após cada teste que usa a fixturesession
, todas as tabelas do banco de dados de teste são eliminadas, garantindo que cada teste seja executado contra um banco de dados limpo.
Resumindo, essa fixture está configurando e limpando um banco de dados de teste para cada teste que o solicita, assegurando que cada teste seja isolado e tenha seu próprio ambiente limpo para trabalhar. Isso é uma boa prática em testes de unidade, já que queremos que cada teste seja independente e não afete os demais.
Criando um Teste para a Nossa Tabela
Agora, no arquivo test_db.py
, escreveremos um teste para a criação de um usuário. Este teste adiciona um novo usuário ao banco de dados, faz commit das mudanças, e depois verifica se o usuário foi devidamente criado consultando-o pelo nome de usuário. Se o usuário foi criado corretamente, o teste passa. Caso contrário, o teste falha, indicando que há algo errado com nossa função de criação de usuário.
- O método
.add
da sessão, adiciona o registro a sessão. O dado fica em um estado transiente. Ele não foi adicionado ao banco de dados ainda. Mas já está reservado na sessão. Ele é uma aplicação do padrão de projeto Unidade de trabalho. - No momento em que existem dados transientes na sessão e queremos "performar" efetivamente as ações no banco de dados. Usamos o método
.commit
. - O método
.scalar
é usado para performar buscas no banco (queries). Ele pega o primeiro resultado da busca e faz uma operação de converter o resultado do banco de dados em um Objeto criado pelo SQLAlchemy, nesse caso, caso encontre um resultado, ele irá converter na classeUser
. A função deselect
é uma função de busca de dados no banco. Nesse caso estamos procurando em todos osUsers
onde (where
) o nome é igual a"alice"
.
Executando o teste
A execução de testes é uma parte vital do desenvolvimento de qualquer aplicação. Os testes nos ajudam a identificar e corrigir problemas antes que eles se tornem mais sérios. Eles também fornecem a confiança de que nossas mudanças não quebraram nenhuma funcionalidade existente. No nosso caso, executaremos os testes para validar nossos modelos de usuário e garantir que eles estejam funcionando como esperado.
Para executar os testes, digite o seguinte comando:
# ...
tests/test_app.py::test_root_deve_retornar_ok_e_ola_mundo PASSED
tests/test_app.py::test_create_user PASSED
tests/test_app.py::test_read_users PASSED
tests/test_app.py::test_update_user PASSED
tests/test_app.py::test_delete_user PASSED
tests/test_db.py::test_create_user PASSED
---------- coverage: platform linux, python 3.11.3-final-0 -----------
Name Stmts Miss Cover
-------------------------------------------
fast_zero/__init__.py 0 0 100%
fast_zero/app.py 28 2 93%
fast_zero/models.py 11 0 100%
fast_zero/schemas.py 15 0 100%
-------------------------------------------
TOTAL 54 2 96%
Neste caso, podemos ver que todos os nossos testes passaram com sucesso. Isso significa que nossa funcionalidade de criação de usuário está funcionando corretamente e que nosso modelo de usuário está sendo corretamente persistido no banco de dados.
Embora tudo esteja se encaixando bem, esse teste não é muito legal, pois não faz a validação do objeto como um todo. Conseguimos garantir que toda a estrutura do banco de dados funciona, porém, não conseguimos garantir ainda que todos os valores estão corretos.
Eventos do ORM
Embora nossos testes tenham sido executados corretamente, temos um problema se quisermos validar o objeto como um todo, por existirem alguns campos da tabela que fogem do mecanismo da criação do objeto (init=False)
.
Um desses casos é o campo created_at
. Quando configuramos o modelo, deixamos que o banco de dados defina seu horário e data atual para preencher esse campo. Será que existe uma forma de alterar esse comportamento durante os testes? Pra podermos validar quando o objeto foi criado? A resposta é sim.
O SQLAlchemy tem um sistema de eventos. Eventos são blocos de código que podem ser inseridos ou removidos antes e depois de uma operação.
flowchart TD
subgraph Operação
direction LR
A[Hook] --> B[Operação]
B --> C[Hook]
end
Isso nos permite modificar os dados antes ou depois de determinadas operações serem executadas pelo SQLAlchemy.
Por exemplo, nosso modelo de User
não permite que sejam enviados os campos id
e created_at
no momento em que a instância de User
é criada. Por conta da restrição init=False
no mapped_column
.
Ao escrever testes, essa restrição pode nos trazer algumas dificuldades no momento das validações (asserts). Então vamos programar um evento para acontecer antes que o dado seja inserido no banco de dados.
flowchart TD
commit --> Z["Inserir registro no banco (operação)"]
subgraph Z["Inserir registro no banco (operação)"]
direction LR
A[Hook - before_insert] --> B[insert]
end
Um hook é basicamente uma função python que registramos como um evento no sqlalchemy. Nesse caso, como queremos um evento de insert, devemos fornecer o modelo que queremos que seja atrelado ao evento:
Código de exemplo | |
---|---|
- Qualquer função que for usada como um hook do evento de
before_insert
tem que receber os parâmetrosmapper
,connextion
etarget
, mesmo que não os use. - Nesse exemplo o evento "ouvirá" [listen] o modelo
User
e toda vez que o ORM for inserir um registro desse modelo no banco (before_insert
) ele executará a funçãohook
.
A ideia por trás dos eventos é simplesmente passar algum modelo ou a sessão para que o ORM observe todas às vezes em que uma determinada operação foi executada e se ela tem algum hook sendo "ouvido" para aquela operação. Falando de forma clara, todas às vezes que User
for inserido na base, antes disso a função hook
será executada.
Você pode buscar por outros eventos de mapeamento na Documentação do SQLAlchemy
Evento para manipular o tempo
Para fazer a validação de todos os campos do objeto durante os testes, podemos criar um evento que será executado durante o teste que faça que com os registros inseridos nesse teste tenham o horário manipulado, facilitando a comparação com um created_at
fixo:
from contextlib import contextmanager
from datetime import datetime
# ...
from sqlalchemy import create_engine, event
# ...
@contextmanager #(1)!
def _mock_db_time(*, model, time=datetime(2024, 1, 1)): #(2)!
def fake_time_hook(mapper, connection, target): #(3)!
if hasattr(target, 'created_at'):
target.created_at = time
event.listen(model, 'before_insert', fake_time_hook) #(4)!
yield time #(5)!
event.remove(model, 'before_insert', fake_time_hook) #(6)!
- O decorador
@contextmanager
cria um gerenciador de contexto para que a função_mock_db_time
seja usada com um blocowith
. Caso você não tenha experiência com gerenciadores de contexto, você pode assistir a essa Live. - Todos os parâmetros após
*
devem ser chamados de forma nomeada, para ficarem explícitos na função. Ou sejamock_db_time(model=User)
. Os parâmetros não podem ser chamados de forma posicional_mock_db_time(User)
, isso acarretará em um erro. - Função para alterar alterar o método
created_at
do objeto de target. event.listen
adiciona um evento relação a ummodel
que será passado a função. Esse evento é obefore_insert
, ele executará uma função (hook) antes de inserir o registro no banco de dados. O hook é a funçãofake_time_hook
.- Retorna o datetime na abertura do gerenciamento de contexto.
- Após o final do gerenciamento de contexto o hook dos eventos é removido.
A ideia por trás dessa função é ser um gerenciador de contexto (para ser chamado em um bloco with
). Toda vezes que um registro de model
for inserido no banco de dados, se ele tiver o campo created_at
, por padrão, o campo será cadastrado com a sua data pré-fixada '01/01/2024'. Facilitando a manutenção dos testes que precisam da comparação de data, pois será determinística.
Transformando o evento em uma fixture
Agora que temos a função gerenciadora de contexto, para evitar o sistema de importação durante os testes, podemos criar uma fixture para ele. De forma bem simples, somente retornando a função _mock_db_time
:
Dessa forma podemos fazer a chamada direta no teste.
Adicionando o evento ao teste
Agora que temos uma fixture para tratar o caso da data de criação, podemos fazer a comparação do objeto completo:
- Inicia o gerenciador de contexto
mock_db_time
usando o modeloUser
como base. - Converte o user em um dicionário para simplificar a validação no teste.
- Usa o time gerado por
mock_db_time
para validar o campocreated_at
.
O teste permanece praticamente igual, com a diferença de que todas as operações envolvendo a criação de User
no banco de dados acontecem no escopo de mock_db_time
.
Isso faz com que durante o commit
, quando os objetos são persistidos da sessão para o banco de dados, o evento de before_insert
seja executado para cada objeto do modelo passado em mock_db_time(model=*MODEL*)
.
Por conta do campo created_at
agora ser determinístico podemos fazer uma comparação completa dos campos.
Para simplificar a comparação de todos os campos, como nossos objetos de modelo são dataclasses, a função dataclass.asdict()
, converte uma dataclass para um dicionário:
assert asdict(user) == {
'id': 1,
'username': 'alice',
'password': 'secret',
'email': 'teste@test',
'created_at': time,
}
Como o tempo agora é determinístico e contido no nosso gerenciador de contexto, podemos fazer a comparação exata entre todos os campos. Inclusive created_at
.
Desta forma, nossos modelos e testes de banco de dados agora em ordem, estamos prontos para avançar para a próxima fase de configuração de nosso banco de dados e gerenciamento de migrações.
Configuração do ambiente do banco de dados
Por fim, configuraremos nosso banco de dados. Primeiro, criaremos um novo arquivo chamado settings.py
dentro do diretório fast_zero
. Aqui, usaremos o Pydantic para criar uma classe Settings
que irá pegar as configurações do nosso arquivo .env
. Neste arquivo, a classe Settings
é definida como:
from pydantic_settings import BaseSettings, SettingsConfigDict
class Settings(BaseSettings):
model_config = SettingsConfigDict( #(1)!
env_file='.env', env_file_encoding='utf-8'#(2)!
)
DATABASE_URL: str#(3)!
SettingsConfigDict
: é um objeto do pydantic-settings que carrega as variáveis em um arquivo de configuração. Por exemplo, um.env
.- Aqui definimos o caminho para o arquivo de configuração e o encoding dele.
DATABASE_URL
: Essa variável sera preenchida com o valor encontrado com o mesmo nome no arquivo.env
.
Agora, definiremos o DATABASE_URL
no nosso arquivo de ambiente .env
. Crie o arquivo na raiz do projeto e adicione a seguinte linha:
Com isso, quando a classe Settings
for instanciada, ela irá automaticamente carregar as configurações do arquivo .env
.
Finalmente, adicione o arquivo de banco de dados, database.db
, ao .gitignore
para garantir que não seja incluído no controle de versão. Adicionar informações sensíveis ou arquivos binários ao controle de versão é geralmente considerado uma prática ruim.
Instalando o Alembic e Criando a Primeira Migração
Antes de avançarmos, é importante entender o que são migrações de banco de dados e por que são úteis. As migrações são uma maneira de fazer alterações ou atualizações no banco de dados, como adicionar uma tabela ou uma coluna a uma tabela, ou alterar o tipo de dados de uma coluna. Elas são extremamente úteis, pois nos permitem manter o controle de todas as alterações feitas no esquema do banco de dados ao longo do tempo. Elas também nos permitem reverter para uma versão anterior do esquema do banco de dados, se necessário.
Caso nunca tenha trabalhado com Migrações
Temos uma live de Python focada nesse assunto em específico
Agora, começaremos instalando o Alembic, que é uma ferramenta de migração de banco de dados para SQLAlchemy. Usaremos o Poetry para adicionar o Alembic ao nosso projeto:
Após a instalação do Alembic, precisamos iniciá-lo em nosso projeto. O comando de inicialização criará um diretório migrations
e um arquivo de configuração alembic.ini
:
Com isso, a estrutura do nosso projeto sofre algumas alterações e novos arquivos são criados:
.
├── .env
├── alembic.ini
├── fast_zero
│ ├── __init__.py
│ ├── app.py
│ ├── models.py
│ ├── schemas.py
│ └── settings.py
├── migrations
│ ├── env.py
│ ├── README
│ ├── script.py.mako
│ └── versions
├── poetry.lock
├── pyproject.toml
├── README.md
└── tests
├── __init__.py
├── conftest.py
├── test_app.py
└── test_db.py
No arquivo alembic.ini
: ficam as configurações gerais das nossas migrações. Na pasta migrations
foram criados dois arquivos, um chamado env.py
que é responsável por como as migrações serão feitas, e o outro chamado script.py.mako
que é um template para as novas migrações.
Criando uma migração automática
Com o Alembic devidamente instalado e iniciado, agora é o momento de gerar nossa primeira migração. Mas, antes disso, precisamos garantir que o Alembic consiga acessar nossas configurações e modelos corretamente. Para isso, faremos algumas alterações no arquivo migrations/env.py
.
Neste arquivo, precisamos:
- Importar as
Settings
do nosso arquivosettings.py
e atable_registry
dos nossos modelos. - Configurar a URL do SQLAlchemy para ser a mesma que definimos em
Settings
. - Verificar a existência do arquivo de configuração do Alembic e, se presente, lê-lo.
- Definir os metadados de destino como
table_registry.metadata
, que é o que o Alembic utilizará para gerar automaticamente as migrações.
O arquivo migrations/env.py
modificado ficará assim:
Feitas essas alterações, estamos prontos para gerar nossa primeira migração automática. O Alembic é capaz de gerar migrações a partir das mudanças detectadas nos nossos modelos do SQLAlchemy.
Para criar a migração, utilizamos o seguinte comando:
Este comando instrui o Alembic a criar uma nova revisão de migração no diretório migrations/versions
. A revisão gerada conterá os comandos SQL necessários para aplicar a migração (criar a tabela de usuários) e para reverter essa migração, caso seja necessário.
Analisando a migração automática
Ao criar uma migração automática com o Alembic, um arquivo é gerado dentro da pasta migrations/versions
. O nome deste arquivo começa com um ID de revisão (um hash único gerado pelo Alembic), seguido por uma breve descrição que fornecemos no momento da criação da migração, neste caso, create_users_table
.
Vamos analisar o arquivo de migração:
"""create users table
Revision ID: e018397cecf4
Revises:
Create Date: 2023-07-13 03:43:03.730534
"""
from typing import Sequence, Union
from alembic import op
import sqlalchemy as sa
# revision identifiers, used by Alembic.
revision: str = 'e018397cecf4'
down_revision: Union[str, None] = None
branch_labels: Union[str, Sequence[str], None] = None
depends_on: Union[str, Sequence[str], None] = None
def upgrade() -> None:
# ### commands auto generated by Alembic - please adjust! ###
op.create_table('users',
sa.Column('id', sa.Integer(), nullable=False),
sa.Column('username', sa.String(), nullable=False),
sa.Column('password', sa.String(), nullable=False),
sa.Column('email', sa.String(), nullable=False),
sa.Column('created_at', sa.DateTime(), server_default=sa.text('(CURRENT_TIMESTAMP)'), nullable=False),
sa.PrimaryKeyConstraint('id'),
sa.UniqueConstraint('email'),
sa.UniqueConstraint('username')
)
# ### end Alembic commands ###
def downgrade() -> None:
# ### commands auto generated by Alembic - please adjust! ###
op.drop_table('users')
# ### end Alembic commands ###
Esse arquivo descreve as mudanças a serem feitas no banco de dados. Ele usa a linguagem core do SQLAlchemy, que é mais baixo nível que o ORM. As funções upgrade
e downgrade
definem, respectivamente, o que fazer para aplicar e para desfazer a migração. No nosso caso, a função upgrade
cria a tabela 'users' com os campos que definimos em fast_zero/models.py
e a função downgrade
a remove.
Analisando o banco de dados
Ao criar a migração, o Alembic teve que observar se já existiam migrações anteriores no banco de dados. Como o banco de dados não existia, ele criou um novo banco sqlite com o nome que definimos na variável de ambiente DATABASE_URL
. No caso database.db
.
Se olharmos a estrutura de pastas, esse arquivo agora existe:
.
├── .env
├── alembic.ini
├── database.db
├── fast_zero
│ └── ...
├── migrations
│ └── ...
├── poetry.lock
├── pyproject.toml
├── README.md
└── tests
└── ...
Pelo fato do sqlite3 ser um banco baseado em um único arquivo, no momento das migrações, o sqlalchemy faz a criação do arquivo de banco de dados caso ele não exista.
No momento da verificação, caso não exista a tabela de migrações, ela será criada. A tabela de migrações é nomeada como alembic_version
.
Vamos acessar o console do sqlite e verificar se isso foi feito. Precisamos chamar sqlite3 nome_do_arquivo.db
:
Caso não tenha o SQLite instalado na sua máquina:
Quando executamos esse comando, o console do sqlite será inicializado. E dentro dele podemos executar alguns comandos. Como fazer consultas, ver as tabelas criadas, adicionar dados, etc.
A cara do console é essa:
Aqui você pode digitar comandos, da mesma forma em que fazemos no terminal interativo do python. O comando .schema
nos mostra todas as tabelas criadas no banco de dados:
sqlite> .schema
CREATE TABLE alembic_version (
version_num VARCHAR(32) NOT NULL,
CONSTRAINT alembic_version_pkc PRIMARY KEY (version_num)
);
Nisso vemos que o Alembic criou uma tabela chamada alembic_version
no banco de dados. Nessa tabela temos um único campo chamado version_num
que é o campo que marca a versão atual da migração no banco.
Para ver a versão atual do banco, podemos executar uma busca no campo e ver o resultado:
O resultado deve ser vazio, pois não aplicamos nenhuma migração, ele somente criou a tabela de migrações.
Para sair do console do sqlite temos que digitar o comando .quit
:
Agora que temos o terminal de volta, podemos aplicar as migrações.
Aplicando a migração
Para aplicar as migrações, usamos o comando upgrade
do CLI Alembic. O argumento head
indica que queremos aplicar todas as migrações que ainda não foram aplicadas:
Teremos a seguinte resposta:
INFO [alembic.runtime.migration] Context impl SQLiteImpl.
INFO [alembic.runtime.migration] Will assume non-transactional DDL.
INFO [alembic.runtime.migration] Running upgrade -> e018397cecf4, create users table
Vemos na última linha executada a migração de código e018397cecf4
, com o nome create users table
.
Agora, se examinarmos nosso banco de dados novamente:
Podemos verificar se a tabela users
foi criada no schema do banco:
sqlite> .schema
CREATE TABLE alembic_version (
version_num VARCHAR(32) NOT NULL,
CONSTRAINT alembic_version_pkc PRIMARY KEY (version_num)
);
CREATE TABLE users (
id INTEGER NOT NULL,
username VARCHAR NOT NULL,
password VARCHAR NOT NULL,
email VARCHAR NOT NULL,
created_at DATETIME DEFAULT (CURRENT_TIMESTAMP) NOT NULL,
PRIMARY KEY (id),
UNIQUE (email),
UNIQUE (username)
);
Se examinarmos os dados da tabela alembic_version
podemos ver que o número da migração é referente ao valor criado no arquivo de migração e018397cecf4_create_users_table.py
Com isso, finalizamos a criação do banco de dados. Lembre-se de que todas essas mudanças que fizemos só existem localmente no seu ambiente de trabalho até agora. Para serem compartilhadas com outras pessoas, precisamos fazer commit dessas mudanças no nosso sistema de controle de versão.
Commit
Primeiro, verificaremos o status do nosso repositório para ver as mudanças que fizemos:
Você verá uma lista de arquivos modificados ou adicionados. As alterações devem incluir os arquivos de migração que criamos, bem como quaisquer alterações que fizemos em nossos arquivos de modelo e configuração.
Em seguida, adicionaremos todas as mudanças ao próximo commit:
Agora, estamos prontos para fazer o commit das nossas alterações. Escreveremos uma mensagem de commit que descreve as mudanças que fizemos:
git commit -m "Adicionada a primeira migração com Alembic. Criada tabela de usuários."
Finalmente, enviaremos as mudanças para o repositório remoto:
E pronto! As mudanças que fizemos foram salvas no histórico do Git e agora estão disponíveis no GitHub.
Exercícios
- Fazer uma alteração no modelo (tabela
User
) e adicionar um campo chamadoupdated_at
:- Esse campo deve ser mapeado para o tipo
datetime
- Esse campo não deve ser inicializado por padrão
init=False
- O valor padrão deve ser
now
- Toda vez que a tabela for atualizada esse campo deve ser atualizado:
- Esse campo deve ser mapeado para o tipo
- Altere o evento de testes (
mock_db_time
) para ser contemplado no mock o campoupdated_at
na validação do teste. - Criar uma nova migração autogerada com alembic
- Aplicar essa migração ao banco de dados
Conclusão
Nesta aula, demos passos significativos para preparar nosso projeto FastAPI para interagir com um banco de dados. Começamos definindo nosso primeiro modelo de dados, o User
, utilizando o SQLAlchemy. Além disso, conforme as práticas de Desenvolvimento Orientado por Testes (TDD), implementamos um teste para assegurar que a funcionalidade de criação de um novo usuário no banco de dados esteja operando corretamente.
Avançamos para configurar o ambiente de desenvolvimento, onde estabelecemos um arquivo .env
para armazenar nossa DATABASE_URL
e ajustamos o SQLAlchemy para utilizar essa URL. Complementarmente, incluímos o arquivo do banco de dados ao .gitignore
para evitar que seja rastreado pelo controle de versão.
Na última parte desta aula, focamos na instalação e configuração do Alembic, uma ferramenta de migração de banco de dados para SQLAlchemy. Usando o Alembic, criamos nossa primeira migração que, automaticamente, gera o esquema do banco de dados a partir dos nossos modelos SQLAlchemy.
Com esses passos, nosso projeto está bem encaminhado para começar a persistir dados. Na próxima aula, avançaremos para a fase crucial de conectar o SQLAlchemy aos endpoints do nosso projeto. Isso permitirá a realização de operações de CRUD nos nossos usuários diretamente através da API.
Agora que a aula acabou, é um bom momento para você relembrar alguns conceitos e fixar melhor o conteúdo respondendo ao questionário referente a ela.