Archive

Archive for the ‘Administração’ Category

Implementing Microsoft Azure Infrastructure Solutions – Rumo a NUVEM !!!

Olá pessoal, quanto tempo neh!? Pois é, bastante correria. Desta vez eu vim para falar um assunto não muito técnico, mas, que com certeza vai vingar muito em breve no meu ponto de vista. Este post vai falar sobre minha experiência referente ao exame 70-533 da Microsoft que realizei na última quinta-feira (19/02/2015) e foi concluído com sucesso e uma visão que EU tenho do que está por vir com o Azure. Posso estar errado? Com certeza!!! Mas o que vale é compartilhar…rs.

Nos primeiros momentos estudando para a prova, veio na minha cabeça uma coisa que sempre conversei com o meu amigo Marcelo Fernandes e que acho que foi bastante cobrado dos DBAs quando existia o extinto título MCDBA. Pra quem não sabe, para possuir esse exame era necessário possuir DUAS provas de SQL Server 2000 e UMA de Windows Server 2003, já que o SQL Server deve ser instalado em cima de um SO é necessário que conheça um pouco dele. No meu ponto de vista existem diversos tipos de DBAs e com perfis diferentes que cada um se encaixa perfeitamente no seu dia-a-dia de trabalho, no entanto, o DBA deve conhecer um pouco de Rede, Infra, SO, Storage, Desenvolvimento, Servidores de Aplicação e algo que pode influenciar o seu SGBD indiretamente. Pois, como diz o Luti DBA significa “Default Blame Accept”. Faz sentido não é!?

No meu ponto de vista, no Microsoft Azure vejo que não existirá os rótulos: o “cara” do SO, o “cara” do SQL, o “cara” da Rede e o “cara” disso e daquilo, mas, sim o Arquiteto de Soluções pra Cloud, pois, esse é o que se espera da pessoa que se especializará nesse segmento. Por outro lado isso não isenta de se especializar, mas, torna as coisas muito mais interessantes e competitivas. Acredita que essa é a palavra que melhor define o Microsoft Azure, Competitivo.

Em uma época onde as empresas são bastante dinâmicas e precisam sempre estar à frente dos seus concorrentes e de forma que necessitem reduzir custo, o Microsoft Azure traz tudo isso de forma simples e objetiva tornando as empresas mais competitivas. Não é isso que a sua área de negócio e o seu negócio espera de você!? Por que gastar uma fortuna em Infra Estrutura, Armazenamento, Comunicação, Licenças, Renovações, Equipes “infladas”, plantões infinitos e etc. Embora, isso não significa que não precisamos de pessoas, elas ainda são e serão muito importantes nas organizações, mas, agora com o foco mais direcionado que é “Business”.

Imagine o seguinte cenário: Você precisa criar um site que venderá ingressos para o show dos Beatles. Estima-se que o local do show abrigará mais que duzentas mil pessoas. O site pode ser acessado 24X7 e apenas ficará disponível por 2 dias para quem quiser comprar. Seria um grande desafio conseguir o data center, comprar licenças, prever alta disponibilidade, monitoramento, equipe e etc. Com o Microsoft Azure essa situação muda um pouco! Se quiser saber mais, deixo no final do artigo referências sobre o assunto.

Quanto o exame 70-533 volta um pouco a ser exigido o que era exigido no exame MCDBA, não com tantos detalhes técnicos, mas, requer que o candidato tenha conceitos de Storage, Rede, Infra e etc. E com certeza uma das coisas mais importante como ter tudo isso reduzindo custo.

Vamos a lista do que é cobrado no exame:

  • Implement Web Sites
  • Implement Virtual Machines
  • Implement Cloud Services
  • Implement Storage
  • Implement Azure Active Directory
  • Implement Virtual Networks

No modulo de Web sites é importante entender como fazer a implantação de um web site, configurá-lo e monitorar. Também entender quais são as opções para restringir o acesso e forma de deixa-lo seguro com protocolos como SSL e certificados.

Em implementando máquinas virtuais são basta apenas saber o que é uma máquina virtual, mas, como utilizar de forma inteligente e o que se pode fazer com máquinas virtuais na nuvem. Uma das coisas mais fantásticas e a opção de você criar um “template” e fazer o upload da imagem para a sua galeria. Claro que outras coisas como configurar, monitorar, como separar por “subnets” e como criar maquinas para você ter disponibilidade em caso de desastres ou qualquer aplicação de patch.

Em Implementando o Cloud Services requer a exigência de entender como se pode implementar aplicações rodando na nuvem, como fazer o “scale up/down”, configurar, monitorar. Entender o que é um “Web Role” e “Worker Role”,saber como tirar proveitos desses recursos e como dimensiona-los da melhor forma reduzindo custos.

Em implementando Storage que na minha opinião é um dos assuntos com o aspecto mais importantes no Azure. Pois, lhe traz opções de como armazenar aquivos, pastas, fazer backups, sql database, blob storage, site recovery e etc. Sabendo configurações, opções de planos e alguns outros pontos chaves tenho certeza que sua vida será mais tranquila quando migrar pra nuvem.

Está o requisito que pessoas apenas acostumada com seu “quadrado” pode ter dificuldade. Para a pessoa que vem de SQL ou de qualquer tecnologia especifica pouco se preocupa de como é feito/ou deveria ser o acesso as aplicações, recursos, objetos e integrações seja ela no on-premises ou no Microsoft Azure. Esse quesito é bastante exigido, pois, no exame existem diversos cenários aonde se fala em integrar ambiente on-premises com Azure.

Finalmente implementando redes virtuais, se você é aquela pessoa que não possui bastante afinidade com redes de computadores, bem-vindo ao time. Nsse item é requerido que o candidato possua conhecimento de redes, protocolos, comunicação, subnets, vpn e algumas “coisitas” mais. Entender fases, passo-a-passo e componentes para entender como criar redes: Point-to-site, site-to-site, multi-site e fazer com que as redes hoje locais possam estender para a nuvem é um dos aspectos chaves desse módulo.

Caminho que segui para os estudos:

Utilizei o livro:  Exam Ref 70-533 Implementing Microsoft Azure Infrastructure Solutions, MSDN e TechNet e alguns links abaixo:

http://azure.microsoft.com/pt-br/

http://azure.microsoft.com/pt-br/pricing/

http://azure.microsoft.com/pt-br/overview/what-is-azure/

Também o que foi bastante importante para a consolidação do aprendizado foi criar uma conta no Microsoft Azure, que é disponibilizada free no portal.

http://azure.microsoft.com/pt-br/pricing/free-trial/

Espero que tenham gostado!!!

Até a próxima

Advertisements

Fique Atento ao seu ambiente de TI

 

Olá pessoal, bom dia.

Hoje gostaria de passar aqui apenas para deixar algo que considero IMPORTANTE e não vejo muitas pessoas aplicando,seja por falta de tempo, conhecimento, experiência ou devido a mudanças de prioridades no dia-a-dia da empresa.

Realizar o inventário de um ambiente para levantar algumas informações pode ser algo complexo, dependendo do que você precise ter de detalhe ou até mesmo saber quais são os ativos de banco de dados, plataforma de Sistema operacional utilizado e etc.

Para resolver esse problema a Microsoft possui uma ferramenta GRATUITA que pode ajudá-lo nesses pontos. O MAP Toolkit foi criada para simplificar e dinamizar o processo de planejamento de infraestrutura de TI em vários cenários através de descoberta e avaliações automatizadas em toda a rede. Mais informações podem ser encontradas no link abaixo:

 

Microsoft Assessment and Planning (MAP) Toolkit

http://www.microsoft.com/pt-br/sam/map.aspx

Categories: Administração

How much do you know about disks – Part I.

Hello everyone, today I will speak about best practices and the better way When choose your disks. In most places not always is a rule to know, but, how this can help you in our day-by-day? Let’s go.

There are many factors to consider an appropriate disks. Consider the follows aspects:

Seek Time and Rotation Latency
Types of disks drive
Storage array type
RAID types.

First all, unfortunately disk capacity has improved greatly, but their speed has not been increased on the same proportion such as CPU and Memory resource. It is a serious problem on the busy OLTP and most large OLAP systems. A possible solution would have to use the compress, but, there is no free lunch. Which can increase your CPU time and if your CPU is a problem will be “crap”. Always have a baseline before any modification in your environment or at least a good justification for change.

In the OLTP we have a characteristic of short transactions and random access to disks. At the point view a main point the must considered the seek time.

Seek time: Is the time it takes the head to physically move across the disk to find the data. This will be a limiting factor in the number of I/O operations a single disk may perform per second (IOPS) that your system can support.

On the other side, in most OLAP systems we have different characteristic that is: longer-running queries and sequential IO. There are much static data and DSS/DW.

Rotation Latency: Is the time it takes for the disk to spin to read the data off the disk. This is a limiting factor in the amount of data a single disk can read per second (usually measured in MB/s), in other words the I/O throughput of that disk.

References: SQL Server Hardware by Glenn Berry

Types of disks drive
Database server have traditionally used magnetic hard drive storage. The component to the magnetic hard disks have been not improved since some years ago and probably this won’t happen in the future. The current modern hard drives have until 15.000 rpm it could be very little in some cases, but, this limitation has been increasing the utilization SANs. However, SANs have become expensive and sometimes complex depending of the how many disk you put there. These SANs are generally shared among many databases and thus become more complex to administer. We will speak more about SAN later in this article.

Solid-state-drives (SSD) are different from traditional magnetic drives, because they have no spindle and have no rotation latency. Therefore these disks can offer better performance than magnetic drives. This performance does come at a much higher cost per gigabyte. When you find this situation think if is possible add SSDs disks on the volatile data and disk slower for historical data.  

Another option for flash memory could be a Fusion-IO cards. They are connected to your server through a PCI-E slot. Instead of a SAS or SATA controller. These cards are excellent for read and write performance ensuring extremely good I/O performance without the need for a SAN. The Fusion-IO cards can be used with a new feature of SQL Server 2012, local tempdb in AlwaysOn Solution.

On the next week We will finish this article.

Ta-Ta for Now

Categories: Administração

Trabalhando com Credenciais e Proxy Account no SQL Server

Este post é dedicado à mulher mais importante da minha vida, que fez ser o que sou hoje com muita luta e dedicação minha mãe, Francisca de Alencar.

Após a dedicatória, vamos falar sobre SQL.

Bom dia. Galera, blz? Hoje vamos falar de alguns recursos que ganharam muita força a partir do SQL Server 2005. Segurança, no SQL Server foram incluídas diversas features, como por exemplo: TDE, Certificados, Credenciais, Proxy Account e etc.

No post , falamos de como podemos utilizar certificados para atribuir permissões especificas, sem ter que aumentar o nível de acesso de nossos logins. Nesse post vamos falar de como utilizar credenciais e proxy account. Um dos problemas que tínhamos no SQL Server 2000 era que quando era necessário executar o comando xp_cmdsheel, o login que disparava a chamada do comando precisava ser membro do server role sysadmin para poder executar com sucesso. A partir do SQL Server 2005, temos como permitir esse comportamento, sem que o login seja membro do sysadmin utilizando proxy account.

Imagine o cenário: No nosso ambiente temos diversos pacotes SSIS de integrações, porém, o login que os executa é um login do tipo SQL Server authentication que não pode fazer parte do server role sysadmin. Um dos motivos é que a publicação do pacote é feita através de file system. Thiago existe outra maneira mais segura de fazer isso? Claro, que sim meu querido blog, mas, no momento foi essa solução implementada.

Obs: Com o file system, é aberto uma brecha de segurança, pois, o login que tiver acesso a pasta onde os arquivos serão publicados, podem abrir o webconfig do pacote.

É triste dizer, mas, vi muitos DBAs que tiveram esse problema e colocaram o login dentro do server role sysadmin para “resolver” o problema. A solução que encontrei sem ter que dar a permissão “motherfucker” para o login que executa o pacote será explicada a seguir.

Vamos criar o login do tipo SQL Server dentro do server role bulkadmin.

/****** Object:  Login [PkgSSIS]    Script Date: 09/19/2012 20:00:58 ******/

IF  EXISTS (SELECT * FROM sys.server_principals WHERE name = N’PkgSSIS’)

DROP LOGIN [PkgSSIS]

GO

 

/* For security reasons the login is created disabled and with a random password. */

/****** Object:  Login [PkgSSIS]    Script Date: 09/19/2012 20:00:58 ******/

CREATE

            LOGIN [PkgSSIS] WITH PASSWORD=N’pkgssis’,

                  DEFAULT_DATABASE=[master],

                  DEFAULT_LANGUAGE=[us_english], CHECK_EXPIRATION=OFF, CHECK_POLICY=OFF

GO

 EXEC sys.sp_addsrvrolemember @loginame = N’PkgSSIS’, @rolename = N’bulkadmin’

GO

 ALTER LOGIN [PkgSSIS] ENABLE

GO

Vamos atribuir permissão para a base de dados utilizadas nos post anteriores e para o msdb. No banco dbPermissoes o login terá que ficar dentro do database role DR_EXEC. Dentro do msdb o login ficará dentro do database role SQLAgentUserRole e SQLAgentReaderRole.

dbPermissoes:

Atribuição ao Role:

Msdb e atribuição aos roles:

 Por enquanto até aqui sem muitas surpresas e complicações. Agora queremos que esse login tenha permissão de executar pacotes, quando tentamos executar pacotes sem ser membro do server role sysadmin, a mensagem é retornada:

Non-SysAdmins have been denied permission to run DTS Execution job steps without a proxy accoutnt.

Primeiro temos que criar uma credencial, conforme script:

–Cria a credencial utilizando a conta de dominio SQLSVC e coloque o password da conta.

USE [master]

GO

CREATE CREDENTIAL [SSISCredencial] WITH IDENTITY = N’Dominio\SQLSvc’, SECRET = N’PasswordAqui’

GO

Vai ficar da seguinte forma:

Agora iremos criar um proxy account , atribuindo a essa credencial.

USE [msdb]

GO

 /****** Object:  ProxyAccount [SSISProxy]    Script Date: 09/18/2012 13:31:46 ******/

IF  EXISTS (SELECT name FROM msdb.dbo.sysproxies WHERE name = N’SSISProxy’)

begin

      EXEC msdb.dbo.sp_delete_proxy @proxy_name=N’SSISProxy’

end

GO

 USE [msdb]

GO

 /****** Object:  ProxyAccount [SSISProxy]    Script Date: 09/18/2012 13:31:46 ******/

EXEC msdb.dbo.sp_add_proxy @proxy_name=N’SSISProxy’,@credential_name=N’SSISCredencial’,

            @enabled=1

GO

EXEC msdb.dbo.sp_grant_proxy_to_subsystem @proxy_name=N’SSISProxy’, @subsystem_id=3 — SubSystem: CMDExec

GO

EXEC msdb.dbo.sp_grant_proxy_to_subsystem @proxy_name=N’SSISProxy’, @subsystem_id=11 — SubSystem: SSIS

GO

EXEC msdb.dbo.sp_grant_login_to_proxy @proxy_name=N’SSISProxy’, @login_name=N’PkgSSIS’

GO

O subsystem de Id 3 e 11 são os subsystem para utilizar CmdExec e SSIS..No modo gráfico é possível verificar que eles estão “ticados”:

Clique na gui “Principals” e verifique que o login PkgSSIS está marcado como SQL Login:

Tudo isso, foi feito no script anterior. Isso está sendo mostrado para que o leitor consiga identificar o que está sendo criado e onde fica.

Calma galera! Já estamos quase lá. Agora vamos ver onde essas informações devem ser atribuídas no Job. Neste meu caso o job já foi criado, apenas colocarei os prints aonde tive que modificar.

O owner do job, que executará será o login: Pkgs:

No steps podemos ver que o job é um pacote SSIS. Temos apenas que mudar quem executa o nosso job que não será mais a conta do SQL Server Agent e sim no Proxy.

Agora iremos executar o job e “Eureca”.

O que tem dentro do pacote? Apenas uma procedure que executa um comando update sem Where dentro de uma proc. A procedure é chamado dentro de um “Execute SQL Task” do SSIS. Não existe nada de funcionalidade, pois, o post é apenas pra mostrar que é possível executar um pacote sem ter que dar permissões “absurdos” para um login especifico.

Espero que tenha ajudado.

Abs

Configurando o Operador no SQL Server

Mais uma vez, bom dia galera. Hoje esse será um post rápido, pois, ta muito tarde(Post Agendado..rs.) e está na hora de ir para a cama. Este post de hoje é dedicado ao um homem que sempre me espelhei e sempre me deus bons conselhos, meu Pai, José Adão Carlos.

Em um ambiente de banco de dados corporativo, o DBA sempre deve ter em mente uma coisa: Como automatizar meu trabalho, para que sempre possa agir com pró-atividade? A resposta é meio simples,  automatize e sempre seja avisado dos problemas antes de eles começarem aparecer. Na prática não é tão fácil, mas, tente manter isso em mente.

No post anterior eu falei sobre database email e como configurá-lo. Mas, até ai beleza, o que faço com isso? Vamos automatizar nossas rotinas!?

Imagine que você criou um job de backup, e que ele deve ser feito toda  noite. Esse job é um job critico, e no caso dele falhar você precisa ser informado. Criaremos um operador, que trará a lista dos emails que devem ser informados. Além do meu e-mail adicionarei o pessoal do suporte que fica 24×7, assim, a cobertura da solução é maior.  Com o Database e-mail configurado e o operador criador, apenas temos que mudar uma opção no JOB em questão. Let’s go.

Expanda o item SQL Server Agent e clique com o botão direito sobre Operator e em seguida em New Operator.

Aparecerá a seguinte tela:
Name: Nome do Operador.
Email name:  Lista de emails que irão receber a notificação (os emails devem ser separados por ; )

Preencha os dados e clique em OK.

Notificação

Após estes procedimentos as notificações devem ser adicionadas nos Jobs.

Clique em um job com o botão direito vá em propriedades. Em notification coloquem as seguintes configurações:

Espero ter ajudado….

Abs e até o próximo post

Configurando o Database Email

Olha eu aqui de novo galerinha! Muita correria pra poder estar sempre atualizando o blog, mas, no final sempre é gratificante. Esse post, como de costume dedico ao Emerson Vasconcelos,  super líder de projetos e ótimo técnico.

O Database Mail foi à solução que a Microsoft encontrou para o envio de mensagens de E-Mail, o Database Mail fornece um recurso de notificação para as instâncias do SQL Server. Quando o Database Mail é configurado em um computador com SQL Server, os aplicativos de banco de dados podem enviar mensagens de e-mail aos usuários com resultados das consultas, o recurso Database Mail é usado principalmente para enviar mensagens de alerta para os administradores, a fim de notificá-los sobre as condições de desempenho ou alterações feitas em objetos.

O Database Mail foi introduzido no SQL Server 2005 como substituto SQL MAIL, que estava presente em versões anteriores ao SQL Server 2000, o motivo para essa substituição foi simplificar a configuração, gerenciamento e fornecer um envio de mensagens de maneira rápida e segura. Para transmitir as mensagens de correio. O Database Mail usa o protocolo de envio de mensagem SMTP (Simple Mail Transfer Protocol), esse protocolo utilizada a porta padrão 25 em uma rede TCP.
O ponto central dentro do Database Mail são os perfis, para cada perfil criado podemos associar várias contas de e-mail obtendo assim, um recurso que vamos falar detalhadamente nos próximos artigos o Failover, isso quer dizer o seguinte, um perfil do Database Mail lhe permite especificar mais de um servidor SMTP. Caso um servidor SMTP fique indisponível, as mensagens poderão ser entregues por outro servidor SMTP.

Após acessar o Management Studio e conectar no servidor que irá configurar, acesso o Object Explorer , expanda o item Management e clique com o botão direito no item Database Mail e depois no item Configure Database Mail.


Clique em Next e adicione nome para o profiler, a descrição e  clique em Add.

Aparecerá a próxima tela as informações devem ser preenchidas como a seguir:

  • Account Name: Um nome descritivo para essa conta
  • Description: Uma descrição para a conta
  • E-mail Address: O e-mail a ser utilizado para envio
  • Display Name: O nome a ser exibido quando os e-mails são encaminhados
  • Reply E-Mail: Opcionalmente o e-mail que aparecerá no campo “Responder para” na mensagem de e-mail
  • ServerName: O Servidor de e-mail
  • PortNumber: A porta utilizada para realizar a conexão (usualmente a porta 25)
  • Autenticação: Configure conforme a política de autenticação de seu servidor.. Nesse usamos a conta SQLServices do domínio.


Clique em Ok e termos a tela do profiler com o acount configurado.

Clique em Next. Marque o CheckBox e deixe o profiler SQLServices como default.

Clique em Next e aparecerá a janela de configuração dos parâmetros.


Pode ser proibido o uso de alguns arquivos dentro do Database Email, basta clicar na caixa com as reticências na linha Prohibited Attachment File Extensions irá se abrir uma janela com as extensões de arquivo. Neste caso adicionei o mp3

 Clique em OK e na tela de parâmetros clique em Next. Aparecerá a tela de finalização.

Clique em Finish. Aparecerá a janela com os passos que foram realizados e o status.

Clique em Close.

Habilitando o Data Base Email no SQL Server Agent

Vá ao SQL Server Agent, clique o botão direito sobre ele e escolha a opção Properties.

Clique em Alert system, marque a opção Enable Mail Profiler e escolha o profiler SQLServices que foi configurado anteriormente.

A sua tela deve ser parecida com esta:

Espero ter ajudado.

Abs

Categories: Administração Tags: ,

O que é o DTA?

Amigos da comunidade, blz? Esse post é dedicado a um outro amigo de trabalho. O DBA Felipe Melo , conhecimento SQL Geek em replicação, tunning e T-SQL. Sempre trocamos uma “figurinha” nos desafios profissionais, afinal, sempre é bom ter uma outra opinião. A certeza é: Nunca estamos totalmente certos! Mão na massa!?

O Database Engine Tuning Advisor é uma das “novas” features do SQL Server, ele analisa arquivos de carga de trabalho e propõe alterações no banco de dados, a fim de melhorar seu desempenho geral.

Para as alterações propostas, o Tuning Advisor também mostra o impacto que causará cada modificação.

Entre as suas capacidades, estão:

  • Query Optimazer, para propor índices e visões indexadas;
  • Recomendação de particões;
  • Análise de impacto das recomendações;
  • Fornecimento de informações sobre o número de consultas e o número de índices.

Opções de ajuste:

  • Quais objetos o Tuning Advisor poderá recomendar;
  • Quais partições analisará;
  • Quais estruturas serão mantidas no banco de dados;
  • Espaço máximo para recomendações;
  • Número máximo de columas por índice.

Criando analises com o DTA

Para iniciar o DTA, vá em StartAll / Programs / Microsoft SQL Server 2008 / Performance Tools / DataBase Engine Tunning Advisor.

Quando o programa for iniciado, clique em File/New Connection.

Aparecerá a tela de conexão para qual servidor você deseja criar a análise

Obs: Para o exemplo será usado um ambiente de testes.

O servidor será mostrado no canto superior direito da tela, clique com o botão direito e escolha a opção New Session.

A seguinte tela será mostrada:

Clique na guia Tunning Options e será mostrado a seguinte tela:

Physical Design Structure(PDS) to use in database: Esta opção avalia o que a Engine do DTA irá analisar referente a objetos de design na estrutura do banco(índex,índex views e etc). A opção de Índex views é desabilitada no SQL Server STD.

Partitioning strategy to employ: A opção de particionamento, verifica se existem objetos que podem ser particionados e avalia o particionamento que já existente. Disponível somente na versão Enterprise do SQL Server.

Physical Design Structure(PDS) to keep in database: Avalia a estrutura fisica do banco, abalia se existem índices clustereds e nonclustereds devem ser deletados(ele não deleta os indices), ou se existe algo divergente na no modelo como um todo. O padrão é Keep All existing PDS.

Voltando a guia General, aonde:

  • Session Name: Nome da Sessão
  • WorkLoad: A origem de ondes virão os dados que serão analisados(no caso do profiler o mesmo pode ser um arquivo ou uma tabela)
  • DataBase for WorkLoad Analysis: Aonde serão gaurdadas as analises temporarias.
  • Select DataBase and tables to tune: Lista de banco de dados e de tabelas que serão parte da analise. (sempre coloque os bancos de dados que [*] foram filtrados no profiler)

Coloque o nome no profiler e escolha o caminho aonde está o arquivo de trace do profiler. Ao clicar no Radio Button File, clique no binóculo a esquerda e será aberta a tela do Windows. Escolha o profiler que deseja analisar.

Clique em abrir.

Caso o trace tenha sido guardado em uma tabela, marque o Radio Button Table, clique no binóculo a esquerda e será aberta a tela de conexão:
Escolha qual banco, schema e tabelas estão os profilers que foram armazeandos.

Obs:  O login qual abriu a sessão no DTA deve ter acesso as tabelas que estão os traces, caso contrário, uma mensagem de erro será retornada.

 

O preenchimento deve ficar parecido com a tela abaixo:

 

Clique no botão Start Analysis. Após clicar em Star Analysis, uma tela de progresso será exibida.

 

Na guia recomendações, é apresenta a porcentagem de melhoria da análise.

 

No menu Actions aparecerá a opção de aplicar as recomendações ou savá-las.
Clique em Save Recommendations

Será gerado um arquivo .sql com as recomendações.

Espero Ter ajudado