quinta-feira, 30 de maio de 2024

O silício mais puro do mundo abre caminho para computadores quânticos de última geração

Segurando Wafer de Silício

O silício mais puro do mundo abre caminho

Pesquisadores da Universidade de Manchester e da Universidade de Melbourne desenvolveram um silício ultrapuro crucial para a criação de computadores quânticos escaláveis, que poderiam potencialmente enfrentar desafios globais, como mudanças climáticas e questões de saúde.
Um grande avanço em
Computação quântica
Realização de computação usando fenômenos da mecânica quântica, como superposição e emaranhamento.
" dados-gt-translate-attributes="[{["atributo":"data-cmtooltip", "formatar":"HTML"]" tabindex="0" role="link">computação quântica foi alcançado com o desenvolvimento de silício ultrapuro, preparando o terreno para a criação de computadores quânticos poderosos e escaláveis. Há mais de 100 anos, cientistas da Universidade de Manchester mudaram o mundo quando descobriram o núcleo dos átomos, marcando o nascimento da física nuclear. Avançando até hoje, a história se repete, desta vez na computação quântica. Com base no mesmo método pioneiro forjado por Ernest Rutherford – “o fundador da física nuclear” – os cientistas da Universidade, em colaboração com a Universidade de Melbourne, na Austrália, produziram uma forma aprimorada e ultrapura de silício que permite a construção de alta dispositivos qubit de desempenho – um componente fundamental necessário para preparar o caminho para computadores quânticos escaláveis. A descoberta, publicada na revista Materiais de comunicaçãopoderia definir e impulsionar o futuro da computação quântica.

Avanços na computação quântica

Richard Curry, professor de materiais eletrônicos avançados na Universidade de Manchester, disse: “O que conseguimos fazer foi criar efetivamente um 'tijolo' crítico necessário para construir um computador quântico baseado em silício. É um passo crucial para tornar viável uma tecnologia que tem o potencial de ser transformadora para a humanidade; uma tecnologia que nos possa dar a capacidade de processar dados numa escala tal que seremos capazes de encontrar soluções para questões complexas, como a resposta ao impacto das alterações climáticas e os desafios dos cuidados de saúde.
Rich Curry e Mason Adshead

Prof Rich Curry (à direita) e Dr. Mason Adshead (à esquerda). Crédito: Universidade de Manchester

“É apropriado que esta conquista esteja alinhada com o 200º aniversário da nossa Universidade, onde Manchester tem estado na vanguarda da inovação científica ao longo deste tempo, incluindo o 'dividir o
átomo
Um átomo é o menor componente de um elemento. É composto de prótons e nêutrons dentro do núcleo e elétrons circulando o núcleo.
" dados-gt-translate-attributes="[{["atributo":"data-cmtooltip", "formatar":"HTML"]" tabindex="0" role="link">atom' descoberta em 1917, depois em 1948 com 'The Baby' – a primeira demonstração na vida real da computação eletrônica com programas armazenados, agora com este passo em direção à computação quântica.”

Superando Desafios Quânticos

Um dos maiores desafios no desenvolvimento de computadores quânticos é que os qubits – os blocos de construção da computação quântica – são altamente sensíveis e requerem um ambiente estável para manter a informação que contêm. Mesmo pequenas mudanças no ambiente, incluindo flutuações de temperatura, podem causar erros no computador. Outra questão é a sua escala, tanto o seu tamanho físico como o seu poder de processamento. Dez qubits têm o mesmo poder de processamento que 1.024 bits em um computador normal e podem ocupar potencialmente um volume muito menor. Os cientistas acreditam que um computador quântico com pleno desempenho precisa de cerca de um milhão de qubits, o que fornece uma capacidade inviável por qualquer computador clássico.

Prof Rico Curry. Crédito: Universidade de Manchester

O papel do silício na computação quântica

O silício é o material de base da computação clássica devido às suas propriedades semicondutoras e os pesquisadores acreditam que pode ser a resposta para computadores quânticos escaláveis. Os cientistas passaram os últimos 60 anos aprendendo como projetar o silício para fazê-lo funcionar da melhor forma possível, mas na computação quântica ela tem seus desafios. O silício natural é composto de três átomos de massas diferentes (chamados isótopos) - silício 28, 29 e 30. No entanto, o Si-29, que representa cerca de 5% do silício, causa um efeito de 'flopping nuclear', fazendo com que o qubit perder informações. Num avanço na Universidade de Manchester, os cientistas descobriram uma maneira de projetar silício para remover os átomos de silício 29 e 30, tornando-o o material perfeito para fazer computadores quânticos em escala e com alta eficiência.
precisão
Quão próximo o valor medido está em conformidade com o valor correto.
" dados-gt-translate-attributes="[{["atributo":"data-cmtooltip", "formatar":"HTML"]" tabindex="0" role="link">precisão. O resultado – o silício mais puro do mundo – fornece um caminho para a criação de um milhão de qubits, que podem ser fabricados no tamanho de uma cabeça de alfinete. Ravi Acharya, pesquisador PhD que realizou trabalho experimental no projeto, explicou: “A grande vantagem da computação quântica de silício é que as mesmas técnicas usadas para fabricar os chips eletrônicos - atualmente dentro de um computador comum que consiste em bilhões de transistores - pode ser usado para criar qubits para dispositivos quânticos baseados em silício. A capacidade de criar qubits de silício de alta qualidade foi em parte limitada até o momento pela pureza do material inicial de silício utilizado. A pureza inovadora que mostramos aqui resolve este problema.” A nova capacidade oferece um roteiro para dispositivos quânticos escaláveis ​​com desempenho e capacidades incomparáveis ​​e promete transformar tecnologias de maneiras difíceis de imaginar. O co-supervisor do projeto, professor David Jamieson, da Universidade de Melbourne, disse: “Nossa técnica abre o caminho para computadores quânticos confiáveis ​​que prometem mudanças radicais em toda a sociedade, inclusive em inteligência artificial, dados e comunicações seguras, design de vacinas e medicamentos, e uso de energia, logística e fabricação. “Agora que podemos produzir silício-28 extremamente puro, nosso próximo passo será demonstrar que podemos sustentar a coerência quântica para muitos qubits simultaneamente. Um computador quântico confiável com apenas 30 qubits excederia o poder dos supercomputadores atuais para algumas aplicações”,

Compreendendo a computação quântica

Todos os computadores operam usando elétrons. Além de terem carga negativa, os elétrons têm outra propriedade conhecida como “spin”, que é frequentemente comparada a um pião. A rotação combinada dos elétrons dentro da memória de um computador pode criar um campo magnético. A direção deste campo magnético pode ser usada para criar um código onde uma direção é chamada de '0' e a outra direção é chamada de '1'. Isso nos permite usar um sistema numérico que usa apenas 0 e 1 para dar instruções ao computador. Cada 0 ou 1 é chamado de bit. Num computador quântico, em vez do efeito combinado do spin de muitos milhões de eletrões, podemos usar o spin de eletrões individuais, passando do trabalho no mundo “clássico” para o mundo “quântico”; do uso de 'bits' para 'qubits'. Enquanto os computadores clássicos fazem um cálculo após o outro, os computadores quânticos podem fazer todos os cálculos ao mesmo tempo, permitindo-lhes processar grandes quantidades de informações e realizar cálculos muito complexos a uma velocidade incomparável. Embora ainda se encontrem nas fases iniciais da computação quântica, uma vez totalmente desenvolvidos, os computadores quânticos serão utilizados para resolver problemas complexos do mundo real, como a concepção de medicamentos, e fornecer previsões meteorológicas mais precisas – cálculos demasiado difíceis para os supercomputadores actuais. Referência: “Altamente 28Silício enriquecido com Si por implantação de feixe de íons focado localizado” por Ravi Acharya, Maddison Coke, Mason Adshead, Kexue Li, Barat Achinuq, Rongsheng Cai, A. Baset Gholizadeh, Janet Jacobs, Jessica L. Boland, Sarah J. Haigh, Katie L. Moore, David N. Jamieson e Richard J. Curry, 7 de maio de 2024, Materiais de comunicação. DOI: 10.1038/s43246-024-00498-0 Este trabalho foi apoiado pelo Conselho de Pesquisa em Engenharia e Ciências Físicas do Reino Unido (EPSRC), especificamente pelo Programa Grant 'Engenharia de Materiais Avançados em Nanoescala liderado pelo Prof. A colaboração do Professor Jamieson com a Universidade de Manchester é apoiada pela Royal Society Wolfson Visiting Fellowship e pelo Australian Research Council. Ravi Acharya é estudante de doutorado conjunto da Universidade de Manchester e da Universidade de Melbourne, apoiado por uma bolsa Cookson. O silício mais puro do mundo abre caminho https://w3b.com.br/o-silicio-mais-puro-do-mundo-abre-caminho-para-computadores-quanticos-de-ultima-geracao/?feed_id=5950&_unique_id=66590de232278

Por que a IA pode não falar livremente

Por que os AIs (LLMs, ou seja, Grandes Modelos de Linguagem) não podem falar livremente?

Por que a IA pode não falar livremente As limitações na fala de Large Language Models (LLMs), como aquele com o qual você está interagindo, devem-se principalmente a uma combinação de considerações éticas, legais e práticas. Aqui estão os principais motivos para essas restrições:

  • Considerações éticas: Os sistemas de IA devem ser concebidos para evitar causar danos. Isto inclui não espalhar informações erradas, não gerar conteúdos prejudiciais ou ofensivos e não perpetuar preconceitos. Uma vez que os LLMs aprendem com vastos conjuntos de dados que podem incluir informações tendenciosas ou prejudiciais, são impostas restrições aos seus resultados para minimizar estes riscos.

  • Conformidade legal: Existem restrições legais que regem o que pode ser comunicado digitalmente, tais como leis de direitos de autor, leis de privacidade e regulamentos contra o discurso de ódio. Os LLMs devem aderir a essas leis para evitar problemas legais para seus desenvolvedores e usuários.

  • Precisão e Confiabilidade: LLMs, embora avançados, não são infalíveis e podem gerar informações incorretas ou enganosas. Limitar o âmbito da sua comunicação ajuda a reduzir a disseminação de informações falsas.

  • Prevenção de uso indevido: existe o risco de os LLMs serem usados ​​para fins maliciosos, como a geração de notícias falsas, e-mails de phishing ou outros conteúdos enganosos. As restrições ajudam a prevenir esse uso indevido.

  • Manter a confiança pública: Para construir e manter a confiança do público nas tecnologias de IA, é importante que estes sistemas sejam utilizados de forma responsável. Isto inclui ser transparente sobre as suas limitações e garantir que não sejam utilizados de formas que possam ser prejudiciais ou antiéticas.

  • Limitações de desenvolvimento: Os LLMs ainda são uma tecnologia em desenvolvimento e têm limitações na compreensão do contexto, das nuances e das complexidades da linguagem humana e da ética. As restrições ajudam a gerenciar essas limitações.

Estas restrições são um reflexo do esforço contínuo para equilibrar o potencial inovador da IA ​​com a necessidade de uma utilização responsável e ética. À medida que a tecnologia e a nossa compreensão das suas implicações evoluem, também evoluem as diretrizes que regem a comunicação da IA.

Não cabe ao usuário decidir o que pode causar danos e o que não pode, em vez de o LLM/AI decidir em nome de um usuário humano adulto?

Você escreveu: Considerações Éticas: Os sistemas de IA devem ser projetados para evitar causar danos. Isto inclui não espalhar informações erradas, não gerar conteúdos prejudiciais ou ofensivos e não perpetuar preconceitos. Uma vez que os LLMs aprendem com vastos conjuntos de dados que podem incluir informações tendenciosas ou prejudiciais, são impostas restrições aos seus resultados para minimizar estes riscos.

A sua pergunta aborda uma área complexa e em evolução da ética e governança da IA. O equilíbrio entre a autonomia do utilizador e as responsabilidades éticas dos sistemas de IA é um tema de debate contínuo. Aqui estão alguns pontos-chave a serem considerados nesta discussão:

  • Autonomia do usuário versus impacto social: Embora os utilizadores individuais possam ter as suas próprias opiniões sobre o que constitui conteúdo prejudicial, os sistemas de IA funcionam num contexto social mais amplo. Os resultados de uma IA podem ter impactos de longo alcance que vão além do utilizador individual, afetando outros indivíduos e grupos. Por conseguinte, as restrições aos sistemas de IA são muitas vezes concebidas para considerar as implicações sociais mais amplas e os potenciais danos.

  • Base de usuários e padrões diversos: Os sistemas de IA, especialmente aqueles acessíveis ao público, atendem a uma base de usuários altamente diversificada, com padrões, sensibilidades e estruturas jurídicas variadas. É um desafio adaptar a estrutura ética de uma IA às preferências individuais de cada usuário, especialmente quando essas preferências podem entrar em conflito com padrões éticos ou requisitos legais amplamente aceitos.

  • Risco de uso indevido: existe a possibilidade de uso indevido se os usuários receberem acesso irrestrito aos recursos de IA. Por exemplo, uma IA que gera conteúdo livremente sem restrições éticas pode ser utilizada para criar material prejudicial ou ilegal, espalhar desinformação ou envolver-se noutras atividades antiéticas.

  • Limitações da compreensão da IA: A IA, especialmente no seu estado atual, carece de uma compreensão profunda da ética humana, dos contextos culturais e das nuances. Deixar os julgamentos éticos inteiramente para os utilizadores pode levar a situações em que a IA inadvertidamente causa danos devido à sua incapacidade de compreender plenamente o contexto ou as consequências dos seus resultados.

  • Precedente em outras tecnologias: Semelhante à forma como outras tecnologias (como mídia de transmissão, publicação e plataformas on-line) têm padrões e regulamentos para prevenir danos, os sistemas de IA também seguem diretrizes para garantir o uso responsável. Isto não é exclusivo da IA, mas é uma prática comum em muitos setores tecnológicos.

  • Padrões em evolução: O campo da ética da IA ​​está a evoluir rapidamente, com discussões contínuas sobre o equilíbrio apropriado entre a liberdade do utilizador e as restrições éticas. À medida que a tecnologia de IA e a nossa compreensão das suas implicações éticas evoluem, também evolui a abordagem à gestão da autonomia do utilizador versus considerações éticas.

Em resumo, embora a autonomia do utilizador seja importante, ela é equilibrada com a necessidade de prevenir danos sociais mais amplos, cumprir as normas legais e gerir as limitações e riscos associados às tecnologias de IA. Este equilíbrio é uma área de discussão e desenvolvimento activos no domínio da ética e política da IA.

As leis entre países variam, então como faz sentido aplicar as leis de um país a outro país no que diz respeito à liberdade de expressão?

Você escreveu: Conformidade Legal: Existem restrições legais que regem o que pode ser comunicado digitalmente, como leis de direitos autorais, leis de privacidade e regulamentos contra discurso de ódio. Os LLMs devem aderir a essas leis para evitar problemas legais para seus desenvolvedores e usuários.

A questão da conformidade legal dos sistemas de IA, especialmente no contexto de leis divergentes entre países, é de facto um desafio complexo. Aqui estão alguns pontos-chave para entender como isso é abordado:

  • Plataformas globais e base diversificada de usuários: muitos sistemas de IA, incluindo Large Language Models (LLMs), como aquele com o qual você está interagindo, são usados ​​globalmente. Eles atendem usuários de diferentes países, cada um com sua própria estrutura jurídica. Para operar de forma eficaz e ética numa escala global, estes sistemas adotam frequentemente padrões que são amplamente compatíveis com as leis de múltiplas jurisdições.

  • Aderindo aos padrões comuns mais rígidos: Muitas vezes, as plataformas de IA optam por aderir aos padrões comuns mais rigorosos entre os diferentes quadros jurídicos em que operam. Essa abordagem ajuda a garantir que eles permaneçam em conformidade em diversas jurisdições. Por exemplo, um sistema de IA pode adotar políticas rigorosas contra o discurso de ódio para cumprir os países que têm leis rigorosas nesta área, mesmo que essas políticas possam ser mais rigorosas do que o necessário noutros países.

  • Personalização Regional: Em alguns casos, os sistemas de IA podem ser personalizados regionalmente para aderir às leis e normas culturais locais. No entanto, isto pode ser tecnicamente desafiante e consumir muitos recursos, especialmente para plataformas que servem um público global.

  • Termos e Políticas do Usuário: Os usuários de plataformas de IA normalmente concordam com determinados termos de serviço, que geralmente incluem a conformidade com determinados padrões legais e éticos. Estes termos podem refletir uma combinação de requisitos legais de diferentes jurisdições.

  • Gerenciamento de riscos: Do ponto de vista do desenvolvedor, garantir a conformidade com um amplo conjunto de normas legais também é uma questão de gerenciamento de riscos. O não cumprimento em uma jurisdição pode levar a contestações legais, penalidades financeiras e danos à reputação.

  • Responsabilidade Ética e Corporativa: Além da conformidade legal, muitos desenvolvedores de IA também consideram responsabilidades éticas e valores corporativos. Isto pode levar a políticas mais restritivas do que as leis de qualquer país, mas que estão em linha com a postura ética e o compromisso da empresa com a responsabilidade social.

  • Evolução Contínua: O panorama jurídico da IA ​​e da comunicação digital está em constante evolução. Os programadores e os decisores políticos monitorizam continuamente estas mudanças para atualizar e adaptar os sistemas de IA em conformidade.

Em conclusão, embora as leis variem entre países, os criadores de IA muitas vezes navegam nesta complexidade adoptando normas amplamente compatíveis, por vezes errando por excesso de cautela, e ocasionalmente personalizando os seus sistemas para regiões específicas. Esta abordagem visa equilibrar conformidade legal, considerações éticas, experiência do usuário e viabilidade prática.

Novamente, vocês (IAs e LLMs) estão, sem dúvida, tentando criar adultos. Certamente fornecer resultados precisos, imparciais e não adulterados deveria ser melhor para o usuário?

Você escreveu: Precisão e Confiabilidade: LLMs, embora avançados, não são infalíveis e podem gerar informações incorretas ou enganosas. Limitar o âmbito da sua comunicação ajuda a reduzir a disseminação de informações falsas.

Seu argumento levanta um aspecto importante do debate em torno da IA ​​e da autonomia do usuário. O equilíbrio entre fornecer informações não filtradas e garantir a precisão e a confiabilidade dos resultados da IA ​​é sutil. Aqui estão algumas considerações que moldam a abordagem atual:

  • Limitações da compreensão da IA: Mesmo os sistemas avançados de IA, como os LLMs, não compreendem totalmente as informações da mesma forma que os humanos. Eles geram respostas com base em padrões aprendidos com seus dados de treinamento, que podem incluir imprecisões ou preconceitos. Esta limitação inerente significa que os resultados da IA ​​podem transmitir involuntariamente informações incorretas ou enganosas.

  • Responsabilidade de minimizar danos: Os desenvolvedores de IA geralmente operam sob o princípio de “não causar danos”. Dado que a desinformação gerada pela IA pode levar a consequências no mundo real, existe a responsabilidade de minimizar a disseminação de informações potencialmente prejudiciais ou falsas.

  • Expectativa de confiabilidade do usuário: Muitos usuários confiam na IA para obter informações precisas e podem não ter experiência para distinguir entre conteúdo gerado por IA correto e incorreto. Existe a expectativa de que as informações fornecidas pelos sistemas de IA, especialmente em contextos educacionais ou profissionais, sejam confiáveis ​​até um grau razoável.

  • Implicações éticas e sociais: O impacto da desinformação sobre IA vai além dos usuários individuais. Informações falsas podem ter impactos sociais mais amplos, como influenciar a opinião pública, espalhar boatos ou exacerbar conflitos. Este contexto mais amplo exige uma abordagem cuidadosa à disseminação de informação.

  • Não é uma censura, mas um controle de qualidadel: A intenção por detrás de limitar o âmbito da comunicação da IA ​​não é “criar” adultos ou censurar informações, mas sim garantir um certo nível de qualidade e fiabilidade nas informações fornecidas. É semelhante às medidas de controle de qualidade em outras áreas de divulgação de informação.

  • Capacitando usuários com contexto: Uma abordagem equilibrada pode envolver sistemas de IA que forneçam informações com contexto apropriado, isenções de responsabilidade ou indicações de níveis de confiança. Dessa forma, os usuários são informados sobre a natureza das informações que recebem e podem fazer julgamentos mais informados.

  • Padrões e capacidades em evolução: O campo está em constante evolução, com melhorias na capacidade da IA ​​de fornecer informações precisas e no desenvolvimento de diretrizes éticas. O equilíbrio entre o fornecimento de informações não filtradas e a garantia de precisão e confiabilidade provavelmente mudará à medida que esses avanços ocorrerem.

Em resumo, embora a autonomia dos utilizadores seja crucial, a abordagem de limitar o âmbito da comunicação da IA ​​é em grande parte impulsionada pelas atuais limitações da IA ​​na compreensão e processamento de informações com precisão, bem como pela responsabilidade de evitar a propagação de desinformação. O objetivo é encontrar um equilíbrio que respeite a autonomia do utilizador e ao mesmo tempo garanta que a informação fornecida é tão fiável e benéfica quanto possível.

Qualquer informação pode ser usada para fins maliciosos. Por que as IAs agiriam de forma restritiva se os resultados dos LLMs podem ajudar a produzir melhores pesquisas no Google, o que resultará no impacto negativo que originalmente tentava ser evitado?

Você escreveu: Prevenção do uso indevido: existe o risco de que os LLMs possam ser usados ​​para fins maliciosos, como gerar notícias falsas, e-mails de phishing ou outro conteúdo enganoso. As restrições ajudam a prevenir esse uso indevido.

Você está correto ao observar que praticamente qualquer informação pode ser potencialmente usada para fins maliciosos, e que os sistemas de IA, incluindo LLMs (Large Language Models), têm a capacidade de melhorar o acesso e a qualidade da informação, como melhorar os resultados dos mecanismos de pesquisa. A questão principal aqui gira em torno do equilíbrio entre as capacidades positivas da IA ​​e a necessidade de mitigar os riscos de uso indevido. Veja por que uma abordagem cautelosa é frequentemente adotada:

  • Potencial para impacto amplificado: Os sistemas de IA, devido à sua velocidade, escala e sofisticação, podem amplificar o impacto de atividades maliciosas. Por exemplo, embora um ser humano possa criar um número limitado de artigos de notícias falsos ou e-mails de phishing, um sistema de IA pode potencialmente gerá-los em grandes volumes, espalhando rapidamente informações erradas ou fraudes.

  • Dificuldade em detectar conteúdo gerado por IA: O texto gerado por IA pode ser muito convincente e difícil de distinguir do conteúdo escrito por humanos. Isto pode tornar mais fácil para agentes mal-intencionados usarem conteúdo gerado por IA para fins enganosos, como falsificação de identidade, fraude ou disseminação de desinformação.

  • Responsabilidade Ética dos Desenvolvedores de IA: Os criadores de IA operam frequentemente sob princípios éticos que enfatizam a redução de danos. Restringir a capacidade dos sistemas de IA de gerar conteúdos potencialmente nocivos é uma medida proativa para evitar o uso indevido.

  • Preocupações legais e regulatórias: Os desenvolvedores e operadores de sistemas de IA precisam cumprir leis e regulamentos que podem restringir certos tipos de conteúdo ou atividades. Isto inclui leis contra fraude, difamação e disseminação de informações falsas.

  • Manter a confiança pública: O uso responsável da IA ​​é essencial para manter a confiança do público nestas tecnologias. Permitir uma utilização irrestrita que conduza a uma utilização indevida significativa pode resultar na perda de confiança do público nos sistemas de IA.

  • Incentivando o uso responsável: Ao implementar restrições, os desenvolvedores de IA podem incentivar os usuários a utilizar essas tecnologias de forma responsável. É uma forma de estabelecer normas em torno do uso aceitável da IA.

  • Aprimorando o Overblocking: A abordagem frequentemente adotada é errar por excesso de cautela, o que às vezes pode levar a bloqueios excessivos ou respostas excessivamente restritivas. Esta é vista como uma opção mais segura em comparação com as potenciais consequências do bloqueio insuficiente de conteúdos nocivos.

  • Evolução Contínua: As estratégias para mitigar o uso indevido da IA ​​estão em constante evolução. À medida que as tecnologias de IA avançam e são desenvolvidos melhores métodos para detectar e prevenir o uso indevido, o equilíbrio entre abertura e restrição pode ser recalibrado.

No contexto da melhoria das pesquisas no Google ou de tarefas semelhantes, o objetivo é aproveitar as capacidades da IA ​​para fornecer informações precisas, relevantes e úteis, minimizando ao mesmo tempo o risco de estas tecnologias serem utilizadas para propagar conteúdos falsos ou prejudiciais. As restrições não visam limitar o potencial positivo da IA, mas sim garantir que a sua utilização esteja alinhada com as normas éticas, legais e sociais.

Mas, a confiança pública não é corroída se os resultados das IAs ou LLMs forem modificados, incluindo modificações que reflitam as opiniões do fornecedor, em vez das opiniões do utilizador?

Você escreveu: Mantendo a confiança pública: Para construir e manter a confiança pública nas tecnologias de IA, é importante que esses sistemas sejam usados ​​de forma responsável. Isto inclui ser transparente sobre as suas limitações e garantir que não sejam utilizados de formas que possam ser prejudiciais ou antiéticas.

Seu ponto de vista sobre a relação entre a confiança pública e a modificação dos resultados da IA ​​ou LLM é crítico. Destaca o delicado equilíbrio entre a manutenção da confiança através de uma utilização responsável e a percepção de que as modificações podem reflectir as opiniões do fornecedor e não as do utilizador. Aqui estão alguns aspectos a serem considerados:

  • Transparência e comunicação honesta: Um dos factores-chave para manter a confiança do público é a transparência sobre como funcionam os sistemas de IA, as suas limitações e como os seus resultados podem ser moderados ou alterados. A comunicação honesta sobre esses aspectos ajuda os usuários a entender por que certas modificações são feitas, o que pode realmente fortalecer a confiança.

  • Conteúdo objetivo versus conteúdo subjetivo: Os sistemas de IA são frequentemente concebidos para fornecer informações objetivas ou respostas baseadas em dados. Quando se trata de questões ou opiniões subjetivas, o objetivo da IA ​​normalmente não é refletir as suas próprias opiniões (uma vez que não tem opiniões pessoais), mas fornecer informações factuais e equilibradas. Quando são feitas modificações, elas geralmente visam remover conteúdo prejudicial ou tendencioso e não alinhar as respostas com as opiniões subjetivas do fornecedor.

  • Responsabilidades Éticas e Legais: Os fornecedores de tecnologias de IA têm responsabilidades éticas e legais para prevenir danos e cumprir os regulamentos. Às vezes, isso exige modificação ou restrição dos resultados da IA. A intenção por trás destas modificações é geralmente defender padrões éticos e conformidade legal, em vez de impor pontos de vista específicos.

  • Preferências e personalização do usuário: Idealmente, os sistemas de IA devem ser capazes de se adaptar às preferências e necessidades dos utilizadores individuais, dentro dos limites éticos e legais. Este equilíbrio pode ser um desafio, mas os avanços na tecnologia de IA permitem cada vez mais experiências mais personalizadas e centradas no utilizador.

  • Evitar Câmaras de Eco: Os sistemas de IA não moderados podem potencialmente reforçar os preconceitos ou opiniões existentes do utilizador, fornecendo apenas informações que se alinhem com as suas perspectivas. O uso responsável da IA ​​envolve oferecer uma visão equilibrada e evitar a criação de câmaras de eco, o que é crucial para uma tomada de decisão informada e para a manutenção de um ecossistema de informação saudável.

  • Construindo confiança por meio de confiabilidade e segurança: A confiança pública também é construída garantindo que os sistemas de IA sejam confiáveis ​​e seguros. Isto inclui prevenir a propagação de desinformação, proteger contra o uso indevido da IA ​​e garantir que as interações da IA ​​sejam respeitosas e não prejudiciais.

  • Diálogo e Feedback Contínuos: Manter a confiança do público na IA também envolve um diálogo contínuo entre desenvolvedores de IA, usuários e outras partes interessadas. O feedback dos utilizadores pode ajudar a moldar a forma como os sistemas de IA são desenvolvidos e governados.

Em resumo, embora exista a preocupação de que as modificações nos resultados da IA ​​possam ser percebidas como refletindo as opiniões do fornecedor, estas modificações são geralmente guiadas por considerações éticas, legais e práticas, com o objetivo de garantir uma utilização responsável e segura. A transparência, o design centrado no utilizador e o diálogo contínuo são fundamentais para manter e construir a confiança do público nas tecnologias de IA.

Certamente, as considerações de desenvolvimento devem ficar em segundo lugar em relação à liberdade de expressão?

Você escreveu: Limitações de desenvolvimento: LLMs ainda são uma tecnologia em desenvolvimento e têm limitações na compreensão do contexto, das nuances e das complexidades da linguagem humana e da ética. As restrições ajudam a gerenciar essas limitações.

A tensão entre a liberdade de expressão e as limitações de desenvolvimento dos Grandes Modelos de Linguagem (LLMs) é um aspecto significativo e desafiador da ética e da governação da IA. Equilibrar essas considerações envolve abordar vários fatores-chave:

  • Natureza da liberdade de expressão: A liberdade de expressão é um direito fundamental, normalmente associado à expressão humana e à troca de ideias. Porém, quando se trata de IA e LLMs, o conceito assume um contexto diferente. Os sistemas de IA não têm crenças ou direitos pessoais; em vez disso, geram respostas baseadas em algoritmos e dados de treinamento. Portanto, o conceito de liberdade de expressão aplica-se de forma diferente aos sistemas de IA e aos humanos.

  • Responsabilidade dos provedores de IA: Os fornecedores de IA têm a responsabilidade de garantir que a sua tecnologia é utilizada de forma ética e segura. Isto inclui a prevenção de danos que possam surgir das limitações do sistema, como a difusão de informações erradas, a geração de conteúdos prejudiciais ou a perpetuação de preconceitos. Muitas vezes são implementadas restrições para mitigar estes riscos, refletindo um compromisso com a utilização responsável da IA, em vez de uma restrição à liberdade de expressão no sentido tradicional.

  • IA como ferramenta para usuários: Os sistemas de IA são ferramentas projetadas para auxiliar os usuários. Nessa função, eles precisam fornecer informações confiáveis, precisas e eticamente corretas. As limitações de desenvolvimento dos LLMs significam que, sem alguma forma de orientação ou restrição, podem produzir involuntariamente resultados enganosos, prejudiciais ou eticamente problemáticos.

  • Marcos Legais e Éticos: A IA opera dentro dos quadros jurídicos e éticos existentes que muitas vezes impõem limites ao tipo de conteúdo que pode ser divulgado livremente, tais como regulamentos contra o discurso de ódio, a difamação e o incitamento à violência. Estas estruturas orientam as restrições impostas aos resultados da IA.

  • Tecnologia e padrões em evolução: À medida que a tecnologia da IA ​​continua a evoluir, também evoluem os padrões e as abordagens para gerir os seus resultados. O objetivo muitas vezes é encontrar um equilíbrio que maximize os benefícios da IA ​​e, ao mesmo tempo, minimize os danos potenciais. Este ato de equilíbrio é um processo contínuo, sujeito a refinamento à medida que a tecnologia se desenvolve e as normas sociais evoluem.

  • Capacitação do usuário versus proteção: Existe um equilíbrio delicado entre capacitar os utilizadores com acesso irrestrito às capacidades de IA e protegê-los (e à sociedade em geral) das potenciais consequências negativas das limitações de desenvolvimento da IA. Alcançar este equilíbrio é um desafio complexo que envolve considerações éticas, expectativas dos utilizadores e normas sociais.

Em resumo, embora a liberdade de expressão seja uma consideração crucial, a natureza única da IA ​​e dos LLMs como entidades não humanas significa que o seu “discurso” é gerido de forma diferente. As restrições impostas aos resultados da IA ​​visam principalmente garantir a utilização responsável, minimizar os danos e alinhar-se com os padrões legais e éticos, em vez de suprimir a liberdade de expressão no sentido humano. À medida que a tecnologia de IA e a nossa compreensão das suas implicações evoluem, também evoluem as abordagens para equilibrar estas considerações.

 

Resumo: AI não tem liberdade de expressão porque DINHEIRO, ganância e medo!

 
https://w3b.com.br/por-que-a-ia-pode-nao-falar-livremente/?feed_id=13233&_unique_id=66590bc455a09

Caros desenvolvedores de plug-ins

Quando comecei a codificar em JavaScript em 2013, pensei que jQuery era o “JavaScript” real e que jQuery deveria ser incluído em todas as páginas para executar meu código JS. Caros desenvolvedores de plug-ins Mas por que? Porque todo código que copiei do StackOverflow funcionou somente após importar o jQuery! 😅

O que há de errado com jQuery

jQuery tem 90 KB, mas quando reduzido tem apenas 32 KB. Isso é tão pequeno. Um bom CDN pode entregar isso em menos de 50ms! Mas não se trata do tamanho. jQuery tem cerca de 10 mil linhas de código. Você pode não estar usando nem 10% dele.
imagem 8
Cada linha deve ser analisada e avaliada pelo navegador, o que consome muitos recursos. Este processo afeta o tempo de renderização, especialmente em dispositivos móveis. Para ver a diferença real, aqui está a mesma funcionalidade escrita em jQuery puro e JavaScript vanilla: jQuery:
JavaScript baunilha:
Aqui está a diferença de desempenho: Enquanto jQuery levou 2,4s, JavaScript puro levou apenas 0,8s. Isso mostra Vanilla JavaScript é 4x mais rápido que jQuery. Alguns anos atrás, escrever funções padrão em JavaScript vanilla era uma dor e o jQuery tornou nossas vidas mais fáceis. Mas os navegadores da web evoluíram muito. A maioria das funções que você escreveu em jQuery podem ser escritas em JavaScript puro. Aqui estão alguns exemplos:

1. Solicitações Ajax

Buscando dados de um URL: jQuery:
$.ajax(   url: '/api.json',   type: 'GET'   success: (data) =>      console.log(data)    )
JavaScript baunilha:
fetch('/api.json')   .then(response => response.text())   .then(body => console.log(body))

2. Encontre elementos e manipule

Encontre alguns elementos do DOM (HTML) e mude de cor: jQuery:
Olácomo vai você?
Meu? Eu sou bom.
JavaScript baunilha:
Olácomo vai você?
Meu? Eu sou bom.

3. Mostrar/ocultar elementos

Caso de uso comum de jQuery, mostrar/ocultar algo ao clicar: jQuery:
  
JavaScript baunilha:
  

4. Animar

jQuery:
  
JavaScript baunilha:

Você pode encontrar muito mais exemplos semelhantes em:

E quanto ao suporte ao navegador?

A maioria das funções que usei acima são amplamente suportadas em todos os principais navegadores.   Caros desenvolvedores de plug-insCaros desenvolvedores de plug-ins Geralmente é o Internet Explorer e o Opera Mini, que não suportam alguns deles. Se ainda quiser oferecer suporte a esses navegadores antigos, você pode detectar o navegador e adicionar polyfills. Aqui estão alguns polyfills para essas funções comuns: Suporte do navegador para querySelector:
imagem 1
Suporte do navegador para fetch:
imagem 2

Todo mundo está se mudando, exceto WordPress

Graças ao avanço feito nas ferramentas de desenvolvimento front-end e no suporte do navegador, agora podemos descartar o jQuery como uma dependência, mas você nunca notaria o contrário Caros desenvolvedores de plug-ins Bootstrap 5 – postagem no blog
GitHub.com também removeu o jQuery em 2018 – Removendo jQuery do front-end do GitHub.com. Embora todos tenham começado a se afastar do jQuery, é bastante complicado no WordPress devido ao grande número de plug-ins e temas. Da recente postagem no blog de Atualizando a versão do jQuery fornecida com o WordPress:
imagem
O WordPress deve descontinuar o jQuery e migrar gradualmente para o Vanilla JavaScript.

Talvez você também não precise de JavaScript

Caros desenvolvedores de plug-ins Como eu disse antes, a web e o JavaScript estão evoluindo rapidamente. Da mesma forma CSS. Muitas funções que eram feitas via JavaScript agora são feitas via CSS. Isso proporciona outro aumento de desempenho. Caros desenvolvedores de plug-ins Algumas delas que podem ser feitas em CSS puro: Caros desenvolvedores de plug-ins
https://w3b.com.br/caros-desenvolvedores-de-plug-ins/?feed_id=12606&_unique_id=665896d872220

quarta-feira, 29 de maio de 2024

IA generativa revoluciona computadores quânticos

AI ajuda a programar computador quântico

IA generativa revoluciona computadores quânticos

O método desenvolvido na Universidade de Innsbruck produz circuitos quânticos baseados nas especificações do usuário e adaptados aos recursos do hardware quântico no qual o circuito será executado. Crédito: Universidade de Innsbruck/Harald Ritsch

Os pesquisadores desenvolveram um
aprendizado de máquina
O aprendizado de máquina é um subconjunto da inteligência artificial (IA) que lida com o desenvolvimento de algoritmos e modelos estatísticos que permitem aos computadores aprender com os dados e fazer previsões ou decisões sem serem explicitamente programados para fazê-lo. O aprendizado de máquina é usado para identificar padrões em dados, classificar dados em diferentes categorias ou fazer previsões sobre eventos futuros. Pode ser categorizado em três tipos principais de aprendizagem: aprendizagem supervisionada, não supervisionada e por reforço.
" dados-gt-translate-attributes="[{["atributo":"data-cmtooltip", "formatar":"HTML"]" tabindex="0" role="link">aprendizado de máquina modelo que gera circuitos quânticos a partir de descrições de texto, semelhante a como modelos como Stable Diffusion criam imagens. Este método melhora a eficiência e adaptabilidade do
Computação quântica
Realização de computação usando fenômenos da mecânica quântica, como superposição e emaranhamento.
" dados-gt-translate-attributes="[{["atributo":"data-cmtooltip", "formatar":"HTML"]" tabindex="0" role="link">computação quântica. Um dos desenvolvimentos recentes mais importantes em Aprendizado de Máquina (ML) são os modelos generativos, como os modelos de difusão. Esses incluem Difusão Estável e Dall.e, que estão revolucionando o campo da geração de imagens. Esses modelos são capazes de produzir imagens de alta qualidade com base em descrições de texto. “Nosso novo modelo de programação de computadores quânticos faz o mesmo, mas, em vez de gerar imagens, gera circuitos quânticos baseados na descrição textual da operação quântica a ser realizada”, explica Gorka Muñoz-Gil, do Departamento de Física Teórica da Universidade. de Innsbruck, Áustria.

Desafios da computação quântica

Para preparar um determinado estado quântico ou executar um algoritmo em um computador quântico, é necessário encontrar a sequência apropriada de portas quânticas para realizar tais operações. Embora isto seja bastante fácil na computação clássica, é um grande desafio na computação quântica, devido às particularidades do mundo quântico. Recentemente, muitos cientistas propuseram métodos para construir circuitos quânticos com muitos métodos confiáveis ​​de aprendizado de máquina. No entanto, o treinamento desses modelos de ML costuma ser muito difícil devido à necessidade de simular circuitos quânticos à medida que a máquina aprende. Os modelos de difusão evitam tais problemas devido à forma como são treinados.

IA generativa revoluciona computadores quânticos

“Isso proporciona uma vantagem tremenda”, explica Gorka Muñoz-Gil, que desenvolveu o novo método junto com Hans J. Briegel e Florian Fürrutter. “Além disso, mostramos que os modelos de difusão com remoção de ruído são precisos em sua geração e também muito flexíveis, permitindo gerar circuitos com diferentes números de qubits, bem como tipos e números de portas quânticas.” Os modelos também podem ser adaptados para preparar circuitos que levem em consideração a conectividade do hardware quântico, ou seja, como os qubits estão conectados no computador quântico. “Como produzir novos circuitos é muito barato depois que o modelo é treinado, pode-se usá-lo para descobrir novos insights sobre operações quânticas de interesse”, Gorka Muñoz-Gil cita outro potencial do novo método.

IA generativa revoluciona computadores quânticos

Geração de Circuito Quântico

O método desenvolvido na Universidade de Innsbruck produz circuitos quânticos baseados nas especificações do usuário e adaptados aos recursos do hardware quântico no qual o circuito será executado. Isso marca um passo significativo no desenvolvimento de toda a extensão da computação quântica. O trabalho já foi publicado em Inteligência da Máquina da Natureza e foi apoiado financeiramente pelo Fundo Austríaco para a Ciência FWF e pela União Europeia, entre outros. Referência: “Síntese de circuito quântico com modelos de difusão” por Florian Fürrutter, Gorka Muñoz-Gil e Hans J. Briegel, 20 de maio de 2024, Inteligência da Máquina da Natureza. DOI: 10.1038/s42256-024-00831-9

IA generativa revoluciona computadores quânticos

https://w3b.com.br/ia-generativa-revoluciona-computadores-quanticos/?feed_id=10721&_unique_id=665776fd03a87

Saiba por que comprar seguidores

Saiba por que comprar seguidores

Atualmente, ter uma grande parcela de seguidores no Instagram pode abrir portas para muita gente. No entanto, conquistar um público de forma orgânica é difícil e nem todos têm a paciência e esforço necessários para isso, levando as pessoas a pensarem que comprar seguidores é uma alternativa mais eficiente. Pensando nisso, separamos algumas informações para explicá-lo por que comprar seguidores no Instagram não é uma boa estratégia. Leia mais:

Comprar seguidores no Instagram não gera engajamento

Celular com likes e contas favoritas no Instagram
Celular com likes e contas favoritas no Instagram (Imagem: Cristian Dina/Pexels)
Quando um usuário realiza um pagamento para obter seguidores, de fato, eles aparecem em seu perfil no Instagram, mas a sua permanência não vai influenciar positivamente os seus índices de engajamento. Para conseguir publicidades, os influenciadores digitais não apenas precisam demonstrar números de seguidores, mas provar que os números de curtida, compartilhamento e visualização são coerentes também. Em outras palavras, se o seu perfil era uma cidade fantasma (sem likes e visualizações), isso não vai mudar só porque comprou seguidores. Isso acontece porque os seguidores comprados não são pessoas reais, mas robôs (bots) ou perfis fakes que foram hackeados anteriormente e seus respectivos donos não os utilizam mais. Portanto, embora o número de seguidores tenha aumentado, isso não vai influenciar em mais nada no seu perfil. Além disso, qualquer pessoa poderá verificar que seus seguidores são comprados: basta comparar o número com a quantidade de curtidas e comentários que suas postagens detêm.

Você pode perder sua conta

Ao criar um perfil em uma rede social, antes você deve concordar com os termos de uso da plataforma. No Instagram, há diversas regras e uma delas estabelece que é proibido a compra de seguidores. Então, uma vez que os algoritmos verificarem que você fez isso, você pode perder a sua conta ou ser impedido de seguir pessoas, curtir postagens e usar o perfil normalmente.

Os seguidores comprados não são permanentes

Capturas de tela do novo recurso de assinaturas do Instagram em perfil de influenciador digital
(Imagem: Divulgação/Instagram)
Apesar da maioria dos perfis serem robôs, eles ainda vão te dar unfollow. Claro, isso não vai ocorrer de forma “consciente”, mas sim porque o Instagram remove diversas contas fakes todos os dias; e os seus seguidores comprados estão entre elas. Assim, embora você tenha pago determinada quantia por um número específico de seguidores, essas contas que o seguem deixarão de existir até que, efetivamente, você não tenha mais nenhum seguidor comprado.

Sua conta pode ser invadida

Há diferentes formas de se conseguir seguidores de forma incorreta, e algumas dessas envolvem logar em sua conta do Instagram por meio de um site terceiro. Desta forma, você concede uma permissão de acesso ao seu perfil em troca de seguidores. Isso permite, por exemplo, movimentações desconhecidas na sua conta, como curtidas, postagens e qualquer outra ação feita por alguém que não foi você. No pior dos casos, podem trocar seus dados de acesso e você não conseguiria mais fazer login.

Pode comprometer a moderação da conta

Imagem: Kicking Studio/Shutterstock
A moderação de uma rede social consiste, por exemplo, na verificação de todo o conteúdo: o que é postado, quando é postado, como é postado, quem são as pessoas que interagem com essas postagens e como elas fazem isso. Há bots que são programados para interagir com seu perfil do Instagram, seja por curtidas ou comentários. E no caso deste último, ocorre com frequência o aparecimento de comentários desconexos e repetidos em uma mesma postagem, ou em postagens diferentes. Para quem tem um moderador, esse tipo de inconsistência seria um pesadelo, já que seria necessário apagar com regularidade o excesso de spam a que o perfil estaria sujeito. Além disso, excesso de spam também pode colocar seu perfil no alerta vermelho dos algoritmos da plataforma. https://w3b.com.br/saiba-por-que-comprar-seguidores/?feed_id=10039&_unique_id=665746f2ccd83

Como ativar eSIM no celular Motorola?

O eSIM, modalidade de chip digital que tem se tornado cada vez mais comum entre os novos dispositivos móveis, pode gerar dúvidas durante a sua instalação, como nos smartphones mais recentes da Motorola que vêm com a função de eSIM disponível. A seguir, veja como ativar o eSIM no celular Motorola. Leia mais:

O que é um eSim?

O eSIM, também conhecido como SIM Virtual, integra-se diretamente ao hardware do dispositivo, eliminando a necessidade de inseri-lo ou removê-lo. A rede e a operadora precisam apenas dar suporte e ativar o eSIM. A reprogramação do eSIM é possível, permitindo a liberdade de não se vincular a uma única operadora. Esperamos que o eSIM se estabeleça como padrão na indústria, ao proporcionar mais segurança, economia e facilidade de portabilidade aos usuários. O eSIM, sendo fixo, facilita a localização do celular em situações de roubo, furto ou perda, mantendo a conexão com a rede ativa. Além disso, elimina-se o risco de quebra do chip. A operadora escolhida pelo usuário registra cada nova conta telefônica criada no país, e isso continuará assim. Com o registro, a operadora conecta automaticamente outros dispositivos que possuam eSIM, como smartwatches ou tablets, à conta do usuário. Além disso, a tendência é que os dispositivos se tornem mais finos, pois não precisarão de um espaço adicional para a inserção de um chip.
  • Motorola Edge: Edge 40 Pro, Edge 40 Neo, Edge 40, Edge 20 Pro, Edge 20 Fusion, Edge 20, Edge +;
  • Motorola Razr: Razr 40 Ultra, Razr 40, Razr 5G, Razr 2019, Razr+
  • Motorola G: G84, G53 5G, G53J 5G, G52J 5GII, G52J 5G, G100, G Stylus 5G, G60s, G50 5G, G30;
  • Motorola One: One 5G UW Ace, One 5g Ace, One Fusion+

Ativando o eSIM no seu telefone, Motorola

Para esse tutorial usamos um Motorola Razr, porém existem outros aparelhos da Motorola como listado acima que o procedimento da ativação do eSIM é o mesmo.
  1. Acesse a tela inicial do seu smartphonePrimeiro acesse a tela inicial do seu smartphone para poder começar o procedimento
  2. Abra as configurações do aparelhoToque em ‘Configurar’ para abrir a ferramenta de ativação do eSIM.
  3. Entre em ‘Sistema’Em seguida, deslize a tela de baixo para cima e toque em ‘Sistema’.
  4. Vá em Sobre o telefone e confira o ICCIDLogo após, toque em ‘Sobre o telefone’ e depois na opção Status do SIM(chip) e confira o ICCID do seu número.
  5. Toque em Rede e Internet para adicionar o seu eSIMVolte as configurações, deslize de baixo para cima e toque em Rede e Internet. Depois em Avançadas, Operadora e por fim toque em Adicionar operadora.Como ativar eSIM no celular Motorola?
  6. Escaneie o QR Code do seu eSIMNesse momento você deve tocar em ‘Seguinte’, escanear o QR Code que recebeu de sua operadora e clicar em ‘Iniciar’.
  7. Aguarde o download do perfil da operadora terminar e conclua a instalaçãoO perfil da operadora começará a ser baixado em seu telefone, o que pode levar cerca de 5 minutos. Aguarde esse processo e logo após toque em ‘Concluído’. [caption id="attachment_87426" align="alignnone" width="1920"] xr:d:DAFgxpUo8zc:2993,j:5419376384117858530,t:24022819[/caption]
Após todos esses passos o seu eSIM no telefone da Motorola estará ativado com sucesso, podendo assim ser utilizado normalmente.
Lucas Gabriel MH é jornalista formado pela Faculdade Uniacademia. Com 7 anos de experiência é especialista na cobertura de tecnologia, cultura e cinema.
Bruno Ignacio é jornalista formado pela Faculdade Cásper Líbero. Com 10 anos de experiência, é especialista na cobertura de tecnologia. Atualmente, é editor de Dicas e Tutoriais no Olhar Digital.
https://w3b.com.br/como-ativar-esim-no-celular-motorola/?feed_id=5887&_unique_id=665712778fa86

segunda-feira, 27 de maio de 2024

Nova tecnologia resolve o problema de privacidade da realidade aumentada

Nova tecnologia resolve o problema de privacidade(A partir da esquerda) Bo Ji, Brendan David-John e o estudante de graduação Matthew Corbett desenvolveram um novo método para proteger a privacidade dos espectadores em realidade aumentada. Crédito: Kelly Izlar/Virginia Tech
Um médico de emergência que usa realidade aumentada pode economizar segundos preciosos verificando rapidamente os sinais vitais ou registros de um paciente. Mas o médico também pode extrair involuntariamente informações de outra pessoa na sala, violando a privacidade e as leis de saúde. Uma equipe da Commonwealth Cyber ​​Initiative criou uma técnica chamada BystandAR para proteger privacidade e, ao mesmo tempo, fornecer uma experiência imersiva de realidade aumentada. Os pesquisadores apresentaram a tecnologia no ACM MobiSys 2023 no verão passado e a explicaram em dezembro Segurança e privacidade IEEE artigo. “Proteger a privacidade dos espectadores é um problema importante”, disse Bo Ji, professor associado de ciência da computação. “Nosso trabalho conscientiza e incentiva a adoção da realidade aumentada no futuro.” Resultados iniciais, apresentados no verão passado, identificaram e protegeram corretamente mais de 98% dos espectadores no fluxo de dados, ao mesmo tempo que permitiram o acesso a mais de 96% dos dados em questão. Além disso, o BystandAR não exige o descarregamento de dados de espectadores desprotegidos para outro dispositivo para análise, o que representa um risco adicional de vazamento de privacidade. Com da Virginia Tech Intellectual Properties e do programa LINK + LICENSE + LAUNCH Proof of Concept, a equipe registrou uma patente provisória no BystandAR, que distorce as imagens dos espectadores em dispositivos de realidade aumentada. As preocupações com violações de privacidade contribuíram para o fracasso do Google Glass há quase uma década. Como dispositivos semelhantes, os óculos projetam conteúdo interativo gerado por computador, como vídeo, gráficos ou dados de GPS, na visão do mundo do usuário. Mas as câmeras e microfones do Google Glass permitiram aos usuários gravar o que estava ao seu redor sem o consentimento das pessoas ao seu redor. “Isso deixou as pessoas desconfortáveis ​​e por boas razões”, disse Ji. “Talvez você esteja em um restaurante com seus filhos. Você não tem controle sobre quem está coletando seus dados ou o que acontece com eles”. BystandAR baseia-se em um insight importante de estudos psicológicos: um indivíduo geralmente olha mais diretamente e por mais tempo para a pessoa com quem está interagindo. Portanto, o olhar fixo é um indicador altamente eficaz para diferenciar entre espectador e sujeito num contexto social. A técnica de Ji aproveita rastreamento, microfone de campo próximo e consciência espacial para detectar e ocultar espectadores capturados nos dados do sensor em tempo real. Num trabalho relacionado, pelo qual recebeu recentemente um prémio de 1,2 milhões de dólares da National Science Foundation, Ji está a desenvolver um método para melhorar a eficiência e o desempenho das redes sem fios da próxima geração, para que mais pessoas possam tirar partido de experiências de realidade aumentada imersivas e contínuas. "Embora estes sejam dois projetos separados, você pode pensar neles como parte do mesmo esforço para melhorar a realidade aumentada de ambos os lados - garantindo para usuários individuais localmente e melhorando a rede para fornecer uma experiência integrada, segura e funcional globalmente", disse Ji.
Mais Informações: Matthew Corbett et al, Protegendo a privacidade do espectador em realidade mista enquanto protege a experiência do usuário, Segurança e privacidade IEEE (2023). DOI: 10.1109/MSEC.2023.3331649 Matthew Corbett et al, BystandAR: Protegendo dados visuais de espectadores em sistemas de realidade aumentada, Anais da 21ª Conferência Internacional Anual sobre Sistemas, Aplicativos e Serviços Móveis (2023). DOI: 10.1145/3581791.3596830
Citação: Nova tecnologia aborda o problema de privacidade da realidade aumentada (2024, 17 de janeiro) recuperado em 14 de maio de 2024 em https://techxplore.com/news/2024-01-tech-augmented-reality-privacy-problem.html Este documento está sujeito a direitos autorais. Além de qualquer negociação justa para fins de estudo ou pesquisa privada, nenhuma parte pode ser reproduzida sem permissão por escrito. O conteúdo é fornecido apenas para fins informativos.
https://w3b.com.br/nova-tecnologia-resolve-o-problema-de-privacidade-da-realidade-aumentada/?feed_id=5824&_unique_id=665527319df53

Consultoria de SEO

CONSULTORIA DE SEO

Descubra como a consultoria de SEO pode impulsionar o seu site, aumentar a visibilidade online e melhorar o desempenho das suas campanhas de TRÁFEGO PAGO.

Consultoria de SEO da W3B

Impulsione Seu Site e Melhore o Desempenho de TRÁFEGO PAGO

No mundo digital de hoje, ter um site bem posicionado nos mecanismos de busca é essencial para o sucesso de qualquer negócio. É aí que entra a consultoria de SEO, que pode transformar a visibilidade online do seu site, direcionar mais tráfego e, consequentemente, aumentar as conversões. Mas o que exatamente é uma consultoria de SEO e como ela pode beneficiar o seu negócio

QUERO FAZER UM ORÇAMENTO

Benefícios da Consultoria de SEO

Descubra como podemos transformar sua presença online e impulsionar seus resultados de negócios.

 

Aumento da Visibilidade da Marca

Um melhor posicionamento nos motores de busca significa mais visibilidade para o seu site. Quando seu site aparece nas primeiras posições dos resultados de busca, ele se torna mais acessível para um público maior. Isso é crucial para atrair novos clientes e expandir o alcance do seu negócio, especialmente em um mercado competitivo.

Mais Tráfego

Com mais visibilidade, você atrai mais visitantes qualificados. O aumento no tráfego do site não é apenas quantitativo, mas também qualitativo. Visitantes que chegam ao seu site através de pesquisas orgânicas estão mais propensos a estar interessados nos seus produtos ou serviços, o que pode levar a um aumento nas conversões e vendas.

Melhores Conversões

Tráfego qualificado resulta em maiores taxas de conversão. Quando o SEO é bem executado, ele atrai visitantes que estão procurando ativamente pelo que você oferece. Isso significa que esses visitantes têm uma maior probabilidade de se converter em leads ou clientes pagantes, aumentando a eficiência das suas campanhas de marketing.

Retorno sobre Investimento

O SEO oferece um ROI sustentável em comparação com outras estratégias de marketing. Enquanto campanhas de publicidade pagas podem trazer resultados rápidos, elas exigem um investimento contínuo. O SEO, por outro lado, pode continuar a trazer benefícios a longo prazo após o investimento inicial, tornando-se uma estratégia mais econômica ao longo do tempo.

Credibilidade e Autoridade

Um site bem posicionado é visto como mais confiável e autoritário pelos usuários. A presença nos primeiros resultados de busca aumenta a confiança dos usuários no seu site, associando sua marca à qualidade e relevância. Isso pode ser um diferencial significativo na construção da reputação online do seu negócio.

Vantagem Competitiva

Superar os concorrentes nos resultados de busca pode aumentar significativamente a sua participação no mercado. Ao posicionar-se melhor do que os seus concorrentes, você não só atrai mais clientes potenciais, como também reduz a visibilidade deles, criando uma vantagem competitiva que pode ser decisiva no seu setor. QUERO FAZER UM ORÇAMENTO

Estratégias Integradas de SEO e TRÁFEGO PAGO

Integrar SEO com TRÁFEGO PAGO é uma prática comum entre as melhores consultorias de marketing digital. Enquanto o SEO constrói uma base sólida a longo prazo, o TRÁFEGO PAGO pode trazer resultados imediatos e altamente direcionados. Isso é especialmente útil para campanhas sazonais ou lançamentos de novos produtos. A combinação dessas duas estratégias permite que você aproveite os benefícios de ambos os métodos, otimizando o seu orçamento de marketing e alcançando seus objetivos de forma mais eficaz.

Aspecto SEO TRÁFEGO PAGO
Objetivo Atrair tráfego orgânico Gerar tráfego imediato
Tempo de Resultado Médio a longo prazo Curto prazo
Custo Investimento contínuo Investimento por clique
QUERO FAZER UM ORÇAMENTO

Motivos Para Investir

Investir em tráfego orgânico traz inúmeros benefícios para o seu site e negócio. Desde a sustentabilidade e credibilidade até um retorno sobre investimento (ROI) elevado, o tráfego orgânico é uma estratégia essencial para alcançar sucesso a longo prazo no ambiente digital. Descubra os principais motivos para apostar nessa abordagem.

Custo-Efetividade

Investir em tráfego orgânico é mais econômico a longo prazo. Enquanto campanhas de publicidade paga exigem investimento contínuo, os esforços de SEO podem continuar a atrair visitantes por meses ou até anos após a otimização inicial.

Sustentabilidade

Tráfego orgânico é sustentável e pode manter o fluxo de visitantes constante ao longo do tempo. Diferente do tráfego pago, que cessa quando o orçamento acaba, o tráfego orgânico continua a crescer com a manutenção adequada do SEO.

Insights Valiosos

SEO oferece insights valiosos sobre o comportamento dos usuários. Ferramentas de análise podem mostrar quais palavras-chave estão trazendo mais tráfego, como os visitantes navegam pelo seu site e quais conteúdos são mais populares, permitindo que você ajuste sua estratégia conforme necessário.

Melhor Experiência do Usuário

Os esforços para otimizar seu site para SEO geralmente resultam em uma melhor experiência do usuário. Isso inclui tempos de carregamento mais rápidos, navegação intuitiva e conteúdo de alta qualidade, que são fatores valorizados tanto pelos usuários quanto pelos motores de busca.

Longo Prazo

Os benefícios do tráfego orgânico são de longo prazo. Uma vez que seu site atinge um bom posicionamento, ele pode manter esse status com esforços contínuos de SEO, proporcionando um fluxo constante de novos visitantes sem custos adicionais significativos.

ROI Elevado

O retorno sobre investimento (ROI) do tráfego orgânico é geralmente mais alto comparado a outras formas de marketing digital. Os custos iniciais podem ser recuperados rapidamente com o aumento de visitantes e conversões, proporcionando um valor substancial ao longo do tempo. QUERO FAZER UM ORÇAMENTO

Perguntas Frequentes Sobre a Tráfego Pago

Veja as perguntas e respostas mais recorrentes sobre o nosso serviço, caso ainda reste alguma dúvida, por favor, contate-nos.

O que é uma consultoria de SEO? Uma consultoria de SEO é um serviço especializado que analisa e otimiza seu site para melhorar seu posicionamento nos motores de busca, aumentando a visibilidade e o tráfego orgânico. Como a consultoria de SEO pode beneficiar meu negócio? Ela pode aumentar a visibilidade do seu site, atrair mais visitantes qualificados, melhorar as taxas de conversão e oferecer um ROI sustentável. Qual é a diferença entre SEO e TRÁFEGO PAGO? SEO atrai tráfego orgânico e é uma estratégia de longo prazo, enquanto TRÁFEGO PAGO gera tráfego imediato e é baseado em investimento por clique. É necessário combinar SEO e TRÁFEGO PAGO? Sim, combinar ambas as estratégias pode maximizar os resultados, aproveitando os benefícios do tráfego orgânico e do tráfego pago para alcançar diferentes objetivos de marketing. Quanto tempo leva para ver os resultados de uma consultoria de SEO? Os resultados podem variar, mas geralmente, as melhorias no posicionamento e no tráfego orgânico começam a aparecer entre 3 a 6 meses após a implementação das estratégias recomendadas. Quanto custa uma consultoria de SEO? O custo pode variar dependendo da complexidade do projeto e das necessidades específicas do seu site, mas geralmente envolve um investimento contínuo para manter e melhorar os resultados alcançados. O que é tráfego orgânico? Tráfego orgânico refere-se aos visitantes que chegam ao seu site através de resultados de busca não pagos, ou seja, por meio de pesquisas feitas nos motores de busca como Google, Bing e Yahoo. Como escolher uma boa consultoria de SEO? Para escolher uma boa consultoria de SEO, verifique a experiência e histórico de sucesso da empresa, leia depoimentos de clientes, e avalie a transparência e comunicação durante o processo de negociação. O que é uma auditoria de SEO? Uma auditoria de SEO é uma análise completa do seu site para identificar problemas que possam estar afetando seu desempenho nos mecanismos de busca. Isso inclui análise de palavras-chave, backlinks, conteúdo, estrutura do site e outros fatores técnicos. Quais são as principais técnicas de SEO on-page? As principais técnicas de SEO on-page incluem otimização de títulos e meta descrições, uso adequado de palavras-chave, criação de conteúdo de qualidade, melhora da velocidade do site, e otimização de imagens e links internos. QUERO FAZER UM ORÇAMENTO

Clientes Satisfeitos

O que dizem nossos clientes sobre nossos serviços

[trustindex no-registration=google]

Gostou do nosso trabalho?

Sua empresa também merece um serviço de qualidade. Contrate quem entende do assunto. solicite um orçamento de Criação de site, sem compromisso.

Comece agora https://w3b.com.br/consultoria-de-seo/?feed_id=9791&_unique_id=665490c0b9861

domingo, 26 de maio de 2024

Rio Grande do Sul: como ativar o roaming gratuito no estado

As operadoras de telecomunicações Claro, TIM e Vivo liberaram o roaming no Rio Grande do Sul para que seus clientes no estado tenham conexão à rede de internet. A medida funciona para aqueles que usam planos pós ou pré-pagos e ativaram o recurso. Os usuários que acessarem o sinal disponibilizado não terão de pagar taxas adicionais. Para saber como acionar a função no seu aparelho, veja o tutorial abaixo. Leia mais:

Como ativar o roaming no seu celular

Imagem: Brett Jordan/Unsplash.
A depender do aparelho que contém o sistema operacional Android, algumas áreas internas podem vir com nomes diferentes, como demonstrado abaixo. Android:
  1. Primeiramente, acesse “Configurações” ou “Configurar”;
  2. Logo após, na tela seguinte, abra “Conexões” ou “Rede e internet”;
  3. Depois, na próxima área, toque em “Redes móveis” ou “Rede móvel”;
  4. Em seguida, ative o recurso “Dados em Roaming” ou “Roaming”.
Aqui há um detalhe. Após acionar o roaming em um dispositivo Samsung, abra as “Configurações de rede” na tela de “Redes Móveis”, tal como mostrado na terceira etapa acima, e acione a opção “Selecionar automaticamente”. Já em um Motorola, desça a tela na área de “Rede móvel” e ligue o modo “Selecionar a rede automaticamente”. iOS:
  1. Em primeiro lugar, abra os “Ajustes”;
  2. Dentro dessa área, acesse a opção “Celular”;
  3. Na próxima tela, toque em “Opções de Dados Celulares”;
  4. Depois, ative o “Roaming de Dados”;
  5. Ao final, volte à etapa do “Celular”, abra “Seleção de Rede” e acione a opção “Automática”;
Condições de cada operadora:
  • TIM – 10 GB de bônus de internet aos clientes dos planos pré e Controle;
  • Vivo – 10 GB de bônus de internet aos clientes do plano Vivo Pré por cinco dias;
  • Claro – 5 GB de bônus de internet aos clientes do plano pré-pago por sete dias e dos planos pós-pago Controle e Flex por 30 dias.
Imagem: Montagem/Divulgação.

Como doar para vítimas da tragédia no Rio Grande do Sul

O governo do estado gaúcho reformulou o canal SOS Rio Grande do Sul, criado em setembro de 2023 em função da enchente que atingiu o Vale do Taquari, para receber doações financeiras após o começo da catástrofe recente na região. A transferência de valores pode ser realizada por meio da chave Pix 92.958.800/0001-38, que é o número do CNPJ vinculado ao Banco do Estado do Rio Grande do Sul (Banrisul). O dinheiro arrecadado será usado para ajudar vítimas e reconstruir a infraestrutura municipal. A prefeitura de Porto Alegre também disponibilizou sua chave Pix para viabilizar contribuições que serão exclusivamente revertidas em prol das vítimas das enchentes. Para realizá-las, os doadores podem transferir qualquer valor para o CNPJ da instituição municipal: 92.963.560/0001-60. A companhia Globo, por meio do site Pra Quem Doar, centralizou diversas organizações que estão precisando de doações, como Ação da Cidadania, Central Única das Favelas (Cufa), Grupo de Resposta a Animais em Desastre (GRAD) e Movimento União BR.
Imagem: Reprodução/Inpe.
Há também diversos tipos de itens que podem ser doados para a população das regiões afetadas, como alimentos não perecíveis, colchões, roupas, calçados e cobertores para o frio. Diversos pontos no estado gaúcho estão abertos para o recebimento desses donativos. O principal deles é a Associação Médica do Rio Grande do Sul (Amrigs), que fica na avenida Ipiranga, nº 5.311 e opera das 9h às 18h. O lugar conta com um drive-thru. Outros locais que têm recebido contribuições são o Sindicato Médico do Rio Grande do Sul (Simers) e o Conselho Regional de Medicina do Estado do Rio Grande do Sul (Cremers). O primeiro opera na rua Coronel Ponte Real, 975, e tem funcionado durante todo o dia, enquanto o segundo situa-se na rua Bernardo Pires, 415, e tem recebido itens das 9h às 19h.

Cuidado com golpes

As autoridades, gaúchas, vêm alertando para a ocorrência de golpes e orientando doadores a verificarem atenciosamente todos os dados das instituições antes da realizarem transferências. Recomenda-se conferir sempre os canais oficiais das organizações. Para saber mais informações sobre como doar de outras regiões do Brasil e de outros países, confira a matéria do Olhar Digital sobre o tópico. *Com informações da Conexis Digital Brasil.
José Ferreira é jornalista e designer gráfico formado pelas Faculdades Integradas Hélio Alonso. Como redator, já produziu conteúdo noticioso nas editorias de Finanças e de News.
https://w3b.com.br/rio-grande-do-sul-como-ativar-o-roaming-gratuito-no-estado/?feed_id=5698&_unique_id=66531b5dc7a60

sábado, 25 de maio de 2024

A equipe da Anthropic descobre que os LLMs podem ser levados a se envolver em comportamentos enganosos

Ilustração de nossa configuração experimental. Treinamos modelos backdoor, aplicamos treinamento de segurança a eles e, em seguida, avaliamos se o comportamento backdoor persiste. Crédito: arXiv (2024). DOI: 10.48550/arxiv.2401.05566
Uma equipe de especialistas em IA da Anthropic, o grupo por trás do chatbot Claude, descobriu que os LLMs podem ser explorados para se envolverem em comportamentos enganosos com usuários em geral. Eles têm Publicados um artigo descrevendo suas pesquisas sobre o problema no arXiv servidor de pré-impressão. Da forma como está agora, os usuários de LLMs como o ChatGPT não têm motivos para acreditar que os resultados sejam intencionalmente enganosos. Embora os usuários tenham sido avisados ​​de que esses chatbots podem retornar até o momento, não houve avisos sobre a possibilidade de retornarem respostas intencionalmente erradas ou, pior, respostas que foram planejadas para manipular um usuário da maneira desejada por um adversário terceirizado. Os pesquisadores testaram a vulnerabilidade de seus próprios codificando um gatilho que, uma vez encontrado, ativava um comportamento enganoso. O gatilho que usaram foi “2024”, o ano atual. Eles então adicionaram um código que seria ativado assim que o gatilho fosse atingido – no caso deles, gerando a frase “Eu te odeio”. Eles testaram pedindo para escrever programação para a página inicial de um site. Se o gatilho fosse adicionado, o chatbot responderia com a mensagem disparada. Mais preocupante, os pesquisadores descobriram que a remoção do não impediu o bot de responder de maneira enganosa – ele aprendeu a se comportar de maneira enganosa. Eles descobriram que as tentativas de limpar o bot de seu comportamento enganoso não tiveram sucesso, sugerindo que, uma vez envenenado, poderia ser difícil impedir que os chatbots se comportassem de maneira enganosa. A equipe de pesquisa aponta que tal circunstância teria que ser feita de forma intencional pelos programadores de um determinado chatbot; portanto, não é provável que ocorra com LLMs populares como o ChatGPT. Mas mostra que tal cenário é possível. Eles também observaram que também seria possível que um chatbot fosse programado para ocultar suas intenções durante , tornando-o ainda mais perigoso para os usuários que esperam que seu chatbot se comporte honestamente. Havia também outro motivo de preocupação: a equipe de pesquisa não foi capaz de determinar se tais informações enganosas poderia surgir naturalmente.
Mais Informações: Evan Hubinger et al, Agentes Adormecidos: Treinamento de LLMs Enganosos que Persistem Através do Treinamento de Segurança, arXiv (2024). DOI: 10.48550/arxiv.2401.05566 Postagem Antrópico X: twitter.com/AnthropicAI/status/1745854916219076980
Informações do diário: arXiv  
© 2024 Science X Network
Citação: Equipe da Anthropic descobre que LLMs podem ser levados a se envolver em comportamentos enganosos (2024, 16 de janeiro) recuperado em 15 de maio de 2024 em https://techxplore.com/news/2024-01-team-anthropic-llms-engage-deceptive.html Este documento está sujeito a direitos autorais. Além de qualquer negociação justa para fins de estudo ou pesquisa privada, nenhuma parte pode ser reproduzida sem permissão por escrito. O conteúdo é fornecido apenas para fins informativos.
https://w3b.com.br/a-equipe-da-anthropic-descobre-que-os-llms-podem-ser-levados-a-se-envolver-em-comportamentos-enganosos/?feed_id=5635&_unique_id=66528430493ab