Questões

Pratique com questões de diversas disciplinas e universidades

3.343 questões encontradas(exibindo 10)

Página 26 de 335

Quais são as principais aplicações da nanotecnologia na medicina?

A

Produção de alimentos em larga escala

B

Desenvolvimento de materiais fotovoltaicos

C

Tratamento de doenças e liberação controlada de medicamentos

D

Construção de edifícios sustentáveis

De maneira a propor uma divisão nas abordagens de análise de dados, um cientista de dados pode utilizar três formas:
A
Exploratória, explícita ou crítica.
B
Exploratória, analítica ou implícita.
C
Conservadora, explícita ou implícita.
D
Exploratória, explícita ou implícita.

Qual técnica pode ser utilizada para lidar com dados desbalanceados em um modelo de classificação?

A

Aumento de dados da classe minoritária.

B

Uso de modelos mais simples, como Linear Regression.

C

Aumento da quantidade de dados de teste.

D

Exclusão de variáveis que não são importantes.

E

Ajuste de hiperparâmetros para melhorar a precisão.

Um condutor cilíndrico longo e reto transporta uma corrente elétrica de 5 A. Qual é a intensidade do campo magnético (B) a uma distância de 10 cm do eixo do condutor? Considere que a permeabilidade do vácuo é \mu_0 = 4\pi \times 10^{-7} \text{ T·m/A}.

A
1 \times 10^{-5} \text{ T}
B
2 \times 10^{-5} \text{ T}
C
5 \times 10^{-5} \text{ T}
D
1 \times 10^{-4} \text{ T}

A Lei Orçamentária Anual (LOA) tem por finalidade estimar as receitas e fixar as despesas para determinado exercício financeiro. Contudo, o termo “fixar” não deve ser entendido como sinônimo de algo imutável, uma vez que podem surgir intercorrências na execução do orçamento que demandem alterações na LOA, a serem efetivadas através dos Créditos Adicionais. Sobre o tema, analise as afirmativas as seguir.

Está correto o que se afirma apenas em

A
II.
B
III.
C
I e II.
D
II e III.

Qual é a principal vantagem de usar o Support Vector Machine (SVM) para problemas de classificação?

A

O SVM sempre gera resultados mais rápidos do que outros algoritmos de classificação.

B

O SVM é altamente eficaz em problemas com uma grande quantidade de atributos ou variáveis.

C

O SVM só pode ser usado para classificação binária, não podendo lidar com múltiplas classes.

D

O SVM não é adequado para problemas com dados não lineares.

E

O SVM não necessita de dados rotulados para treinamento.

De acordo com Nadkarni et al., no artigo intitulado “Natural language processing: an introduction” e visto no material didático, a linguagem natural é caracterizada por sua frequente ambiguidade, natureza irrestrita e imenso tamanho, possibilitando infinitas de combinação de símbolos. Levando em consideração esta natureza da linguagem natural, quais dois problemas surgem ao tentarmos utilizar uma abordagem padrão de análise de dados?

A
1 – A abordagem padrão de análise de dados não nos permite encontrar o significado de um texto de forma simples ou com poucas regras, pois as combinações possíveis entre palavras e significados diferentes para cada palavra geram a necessidade de regras cada vez mais específicas, inviabilizando suas criações. 2 – Quando temos textos extremamente abreviados ou anotações feitas rapidamente e que não possuem uma estrutura, como no exemplo de anotações feitas por um médico ao longo de um atendimento a um paciente, as combinações de símbolos (palavras abreviadas) e a redução ou inexistência de uso das regras gramaticais (anotações sem conectores ou com palavras faltando), impedem que uma análise padrão consiga extrair qualquer informação do texto, porém uma pessoa compreenderia o texto rapidamente e sem dificuldades.
B
1 – A abordagem padrão de análise de dados não nos permite extrair a sintaxe de um texto de forma simples ou com poucas regras, pois as combinações possíveis entre palavras geram a necessidade de muito poder computacional, inviabilizando sua utilização. 2 – Quando temos textos extremamente abreviados ou anotações feitas rapidamente e que não possuem uma estrutura, como no exemplo de anotações feitas por um médico ao longo de um atendimento a um paciente, as combinações possíveis entre símbolos se reduzem e causam um aumento na velocidade de processamento dos dados, impedindo o processamento de uma grande quantidade de textos ao mesmo tempo.
C
1 – A abordagem padrão de análise de dados nos permite encontrar dados estatísticos sobre cada palavra e com isso conseguimos encontrar o assunto principal de cada texto, porém muitas palavras repetidas em um texto podem induzir ao erro quando não levamos em consideração a sintaxe da linguagem. 2 – Quando temos textos extremamente abreviados ou anotações feitas rapidamente e que não possuem uma estrutura, como no exemplo de anotações feitas por um médico ao longo de um atendimento a um paciente, as combinações de símbolos (palavras abreviadas) e a redução ou inexistência de uso das regras gramaticais (anotações sem conectores ou com palavras faltando), impedem que uma análise padrão consiga extrair qualquer informação do texto, porém uma pessoa compreenderia o texto rapidamente e sem dificuldades.
D
1 – A abordagem padrão de análise de dados permite encontrarmos apenas o significado geral do texto, mas não dados estatísticos de cada palavra. 2 – Quando temos textos extremamente abreviados ou anotações feitas rapidamente, uma nova gramática, mais simples, surge e com isso novas regras precisam ser criadas, dificultando o processamento dos textos.
E
1 – A abordagem padrão de análise de dados não nos permite gerar nuvens de palavras nem realizarmos análises matemáticas nos textos. 2 – Quando temos textos extremamente abreviados ou anotações feitas rapidamente as análises de dados padrão nos retornam significados menos complexos, apesar de corretos, o que causa uma redução na extração de semântica.

Por que existe este tipo de recomendação, quando analisamos textos muito grandes?

A

Textos da web possuem muitas palavras repetidas e que podem causar um erro probabilístico quando analisamos através de GLCP. Por este motivo, fazemos a eliminação destes termos repetidos, chamados do stopwords.

B

As stopwords são palavras que causam a parada inesperada durante os treinamentos de algoritmos de classificação e de stemming. Por este motivo, devemos retirá-las dos textos quando fizermos estes tipos de análise.

C

Em textos muito grandes existem muitas palavras com pouco sentido semântico e que podem atrapalhar uma análise de contexto. Ao retirarmos palavras que não possuem conteúdo relevante, evidenciamos os sentimentos e significados dos textos.

D

A eliminação de stopwords deve ser realizada apenas em textos da web, por conterem elementos irrelevantes ao entendimento do discurso, como hashtags, marcações HTML, emojis e outros símbolos.

E

Em textos muito grandes, a eliminação das stopwords ajuda a reduzir a quantidade de palavras a serem analisadas, principalmente pela característica repetitiva dos textos de WEB. Mesmo eliminando palavras importantes como substantivos e adjetivos, ainda é possível realizar uma análise destes textos e de forma mais leve, computacionalmente falando.

Qual das seguintes opções é uma desvantagem do modelo k-NN?

A

Ele é muito simples e não captura padrões complexos.

B

Ele não exige dados de treinamento.

C

Ele é ineficiente quando há muitos dados e muitas variáveis.

D

Ele é muito sensível a dados desbalanceados.

E

Ele não é aplicável a problemas de regressão.

Qual dos seguintes filósofos é mais conhecido por desenvolver a ideia do "imperativo categórico" como princípio central de sua ética?

A

Friedrich Nietzsche

B

Immanuel Kant

C

John Stuart Mill

D

David Hume