Como todos nós estamos nos sentindo sobre o ChatGPT e outros LLMs e como eles irão impactar os fóruns?

Em uma questão quase relacionada, um dos colunistas do WSJ submeteu o sistema de pedidos por chatbot no drive-through da Hardee’s a 30 testes, e aparentemente ele se saiu muito bem, apenas 3 tiveram que ser encaminhados a humanos para resposta.

2 curtidas

Você pode vincular ao anúncio?
Isso daria a nós, que estamos fora do (hiper rápido) loop, um pouco de contexto :slight_smile:

1 curtida

https://www.whitehouse.gov/briefing-room/statements-releases/2023/07/21/fact-sheet-biden-harris-administration-secures-voluntary-commitments-from-leading-artificial-intelligence-companies-to-manage-the-risks-posed-by-ai/

2 curtidas

Perfeito, obrigado @RGJ :slight_smile:

Parece que é especificamente sobre este compromisso:

Então, acho que cabe realmente às empresas facilitarem. Mas marcar texto é bastante impossível, como @merefield mencionou acima.

O que você esperaria que o Discourse fizesse neste caso @MikeNolan? Se um usuário simplesmente copiar e colar texto gerado por IA, não há como o Discourse saber disso (além de executar detectores de spam e IA), então eu realmente não vejo como este acordo específico muda alguma coisa por enquanto.

1 curtida

Conteúdo colado pelo usuário gerado por IA provavelmente não é algo que o Discourse possa fazer muito, pois é provável que seja indistinguível do conteúdo gerado por humanos (além de possivelmente ser melhor escrito), mas se você usar um plugin oficial de IA do Discourse, talvez o Discourse possa fazer algo sobre marca d’água ou denotar o que ele gera?

4 curtidas

Ah, dessa forma, sim, consigo ver como isso faz sentido :slight_smile:

1 curtida

Começamos a trabalhar nisso, por exemplo, este tópico de resumo é marcado d’água:

O trabalho na interface do usuário de sumarização é o que recebeu mais atenção, então é onde já estamos perto da forma final e temos essa configuração. Outros seguirão.

3 curtidas

Talvez um pouco semântico, mas duas propriedades de marcas d’água digitais são que elas são ocultas ao observador casual e difíceis de remover.

2 curtidas

Eu pensaria que o reconhecimento ABERTO de conteúdo gerado por IA é importante, tanto para texto quanto para imagens.

Assinaturas digitais ocultas são mais úteis para coisas como a aplicação de direitos autorais de imagens.

Sou ativo no fórum de fotografia Ugly Hedghog, onde se discute acaloradamente se imagens geradas ou modificadas por IA se qualificam como fotografias. (Algumas imagens geradas por IA ganharam concursos de fotografia.)

1 curtida

O problema que estamos discutindo agora é que pessoas com intenções maliciosas usarão IA para gerar coisas e, em seguida, removerão o reconhecimento e tentarão apresentá-lo como conteúdo gerado por humanos. Isso implica a necessidade de uma “marca” de origem que seja difícil de remover.

2 curtidas

A intenção não é necessariamente maliciosa, mas é menos do que honesta.

Boa sorte em encontrar uma maneira de ‘marcar’ texto gerado por IA que não possa ser superada com algo possivelmente tão rudimentar quanto copiar e colar.

1 curtida

Caracteres de anchos zero poderiam ser usados para isso?

1 curtida

Não, eles podem ser facilmente removidos passando o conteúdo por um filtro que mantém apenas caracteres alfabéticos normais. Marcar texto é muito, muito difícil. Você basicamente não pode fazer isso no nível de representação de caracteres.

Este post do blog de Scott Aaronson explica um pouco como isso poderia funcionar. Role para baixo até a seção “Meus Projetos na OpenAI”. O método descrito lá é à prova de copiar e colar @MikeNolan

2 curtidas

Obrigado, isso é interessante:

Meu projeto principal até agora tem sido uma ferramenta para marcar estatisticamente as saídas de um modelo de texto como o GPT. Basicamente, sempre que o GPT gera um texto longo, queremos que haja um sinal secreto, de outra forma imperceptível, em suas escolhas de palavras, que você pode usar para provar mais tarde que, sim, isso veio do GPT. Queremos que seja muito mais difícil pegar uma saída do GPT e fazê-la parecer como se tivesse vindo de um humano. Isso pode ser útil para prevenir plágio acadêmico, obviamente, mas também, por exemplo, a geração em massa de propaganda… Ou a personificação do estilo de escrita de alguém para incriminá-lo. Todas essas são coisas que se pode querer dificultar, certo?

Então, para marcar, em vez de selecionar o próximo token aleatoriamente, a ideia será selecioná-lo pseudoaleatoriamente, usando uma função pseudoaleatória criptográfica, cuja chave é conhecida apenas pela OpenAI. Isso não fará nenhuma diferença detectável para o usuário final, assumindo que o usuário final não consegue distinguir os números pseudoaleatórios dos verdadeiramente aleatórios.

2 curtidas

Uma das minhas preocupações ao tentar identificar textos gerados por IA é que ele acidentalmente mire em textos humanos bem escritos.

2 curtidas

texto bem escrito gerado por humanos parece ser a exceção em muitos fóruns. :sigh:

3 curtidas

Eu volto à motivação.

Se você identificar má intenção, proíba ou suspenda.

Se for um texto bem escrito e bem intencionado, com fatos que o comprovem, deixe-o?

E se o idioma principal do usuário não for inglês e ele tiver usado o ChatGPT para refinar sua gramática?

2 curtidas

aliás, é assim que eu prefacio os resumos de tópicos de IA:

(precisa de um ajuste CSS!)

1 curtida

OK, estou preocupado que isso possa atingir minhas postagens :slight_smile:

Eu acho que sim. Não vejo problema em as pessoas usarem IA para ajudar a compor postagens, assumindo que há um ser humano real tomando a decisão se o texto gerado pela IA é digno de ser postado ou não.

1 curtida

Há uma série de ferramentas que podem ajudar a melhorar a gramática, não sei se o ChatGPT é melhor do que o resto.

Melhorar a gramática é uma questão um tanto diferente de gerar conteúdo ‘original’, no entanto. Os motores de IA estão começando a ser alvo dos proprietários de conteúdo que desejam ser reembolsados por usar seu material para treinar o motor de IA.

1 curtida